Junbum Lee / ์ด์ค๋ฒ
AI/NLP Researcher
๐ MailTo: jun@beomi.net (or beomi@snu.ac.kr)
๐ Tech Blog: https://beomi.github.io & https://wiki.beomi.net
๐ฅ Github: https://github.com/beomi
๐ Google Scholar: https://scholar.google.com/citations?user=wzH5UWUAAAAJ
Last update @ Mar, 2023
Publications
[Journalism] News comment sections and online echo chambers: The ideological alignment between partisan news stories and their user comments
Abstract
This study explored the presence of digital echo chambers in the realm of partisan mediaโs news comment sections in South Korea. We analyzed the political slant of 152 K user comments written by 76 K unique contributors on NAVER, the countryโs most popular news aggregator. We found that the political slant of the average user comments to be in alignment with the political leaning of the conservative news outlets; however, this was not true of the progressive media. A considerable number of comment contributors made a crossover from like-minded to cross-cutting partisan media and argued with their political opponents. The majority of these crossover commenters were โheadstrong ideologues,โ followed by โflip-floppersโ and โopponents.โ The implications of the present study are discussed in light of the potential for the news comment sections to be the digital cafรฉs of Public Sphere 2.0 rather than echo chambers.
[HCLT 2020] KcBERT: ํ๊ตญ์ด ๋๊ธ๋ก ํ์ตํ BERT
Abstract
์ต๊ทผ ์์ฐ์ด ์ฒ๋ฆฌ์์๋ ์ฌ์ ํ์ต๊ณผ ์ ์ด ํ์ต์ ํตํ์ฌ ๋ค์ํ ๊ณผ์ ์ ๋์ ์ฑ๋ฅ ํฅ์์ ์ฑ์ทจํ๊ณ ์๋ค.
์ฌ์ ํ์ต์ ๋ํ์ ๋ชจ๋ธ๋ก ๊ตฌ๊ธ์ BERT๊ฐ ์์ผ๋ฉฐ, ๊ตฌ๊ธ์์ ์ ๊ณตํ ๋ค๊ตญ์ด ๋ชจ๋ธ์ ํฌํจํด ํ๊ตญ์ ์ฌ๋ฌ ์ฐ๊ตฌ๊ธฐ๊ด๊ณผ ๊ธฐ์
์์ ํ๊ตญ์ด ๋ฐ์ดํฐ์
์ผ๋ก ํ์ตํ BERT ๋ชจ๋ธ์ ์ ๊ณตํ๊ณ ์๋ค. ํ์ง๋ง ์ด๋ฐ BERT ๋ชจ๋ธ๋ค์ ์ฌ์ ํ์ต์ ์ฌ์ฉํ ๋ง๋ญ์น์ ํน์ฑ์ ๋ฐ๋ผ ์ดํ ์ ์ด ํ์ต์์์ ์ฑ๋ฅ ์ฐจ์ด๊ฐ ๋ฐ์ํ๋ค.
๋ณธ ์ฐ๊ตฌ์์๋ ์์
๋ฏธ๋์ด์์ ๋ํ๋๋ ๊ตฌ์ด์ฒด์ ์ ์กฐ์ด, ํน์๋ฌธ์, ์ด๋ชจ์ง ๋ฑ ์ผ๋ฐ ์ฌ์ฉ์๋ค์ ๋ฌธ์ฅ์ ๋ณด๋ค ์ ์ฐํ๊ฒ ๋์ํ ์ ์๋ ํ๊ตญ์ด ๋ด์ค ๋๊ธ ๋ฐ์ดํฐ๋ฅผ ํตํด ํ์ตํ KcBERT๋ฅผ ์๊ฐํ๋ค.
๋ณธ ๋ชจ๋ธ์ ์ต์ํ์ ๋ฐ์ดํฐ ์ ์ ์ดํ BERT WordPiece ํ ํฌ๋์ด์ ๋ฅผ ํ์ตํ๊ณ , BERT Base๋ชจ๋ธ๊ณผ BERT Large ๋ชจ๋ธ์ ๋ชจ๋ ํ์ตํ์๋ค. ๋ํ, ํ์ต๋ ๋ชจ๋ธ์ HuggingFace Model Hub์ ๊ณต๊ฐํ์๋ค. KcBERT๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ์ ์ด ํ์ต์ ํตํด ํ๊ตญ์ด ๋ฐ์ดํฐ์
์ ์ ์ฉํ ์ฑ๋ฅ์ ๋น๊ตํ ๊ฒฐ๊ณผ, ํ๊ตญ์ด ์ํ ๋ฆฌ๋ทฐ ์ฝํผ์ค(NSMC)์์ ์ต๊ณ ์ฑ๋ฅ์ ์ค์ฝ์ด๋ฅผ ์ป์ ์ ์์์ผ๋ฉฐ, ์ฌํ ๋ฐ์ดํฐ์
์์๋ ๊ธฐ์กด ํ๊ตญ์ด BERT ๋ชจ๋ธ๊ณผ ๋น์ทํ ์์ค์ ์ฑ๋ฅ์ ๋ณด์๋ค.
[IC2S2 2020] Anxiety vs. Anger inducing Social Messages: A Case Study of the Fukushima Nuclear Disaster
[ACL 2020 SocialNLP] BEEP! Korean Corpus of Online News Comments for Toxic Speech Detection
Abstract
Toxic comments in online platforms are an unavoidable social issue under the cloak of anonymity. Hate speech detection has been actively done for languages such as English, German, or Italian, where manually labeled corpus has been released. In this work, we first present 9.4K manually labeled entertainment news comments for identifying Korean toxic speech, collected from a widely used online news platform in Korea. The comments are annotated regarding social bias and hate speech since both aspects are correlated. The inter-annotator agreement Krippendorff's alpha score is 0.492 and 0.496, respectively. We provide benchmarks using CharCNN, BiLSTM, and BERT, where BERT achieves the highest score on all tasks. The models generally display better performance on bias identification, since the hate speech detection is a more subjective issue. Additionally, when BERT is trained with bias label for hate speech detection, the prediction score increases, implying that bias and hate are intertwined. We make our dataset publicly available and open competitions with the corpus and benchmarks.
ย
[EMNLP 2019 W-NUT] The Fallacy of Echo Chambers: Analyzing the Political Slants of User-Generated News Comments in Korean Media
Abstract
This study analyzes the political slants of user comments on Korean partisan media. We built a BERT-based classifier to detect political leaning of short comments via the use of semi-unsupervised deep learning methods that produced an F1 score of 0.83. As a result of classifying 27.1K comments, we found the high presence of conservative bias on both conservative and liberal news outlets. Moreover, this study discloses a considerable overlap of commenters across the partisan spectrum such that the majority of liberals (88.8%) and conservatives (63.7%) comment not only on news stories resonating with their political perspectives but also on those challenging their viewpoints. These findings advance the current understanding of online echo chambers.
Career
DataDriven (2022.01. ~)
AI/NLP Researcher
- ํ์ ์ญ๋ ๊ธฐ๋ฐ Generation Model ๊ฐ๋ฐ
- ์ง๋กํกํก: ์ฒญ์๋ AI ์ง๋ก ์๋ด ์๋น์ค ๋ชจ๋ธ ๊ฐ๋ฐ
NAVER (2020.07. ~ 2020.12.)
CLOVA Research Intern
- ๋ค์ด๋ฒ ํด๋ฆฐ๋ด Transformers ๊ณ์ด ๋ชจ๋ธ๋ง
- KcBERT ๊ธฐ๋ฐ Classifier
- ํ๊ตญ์ด Large Language Model (GPT-3, HyperClova)
KAIST DSLAB (2019.07. ~ 2019.08.)
Summer Internship
- The Fallacy of Echo Chambers
- ๋ด์ค ํ์ดํ/๋ณธ๋ฌธ ๊ธฐ๋ฐ ์ธ๋ก ์ฌ๋ค์ ์ ์น์ ํธํฅ์ฑ ๋ถ์
- ๋๊ธ ํ ์คํธ ๋ฐ์ดํฐ ๋ถ์๊ณผ ์ ์ ์ ๋ณด๋ฅผ ํตํด ๋ฐ์ดํฐ ์ฆํญ ํ ์ ์น์ ํธํฅ์ฑ ๋ถ์
๋ค์ด๋ฒ ๋ด์ค์ ๋๊ธ ๋ฐ์ดํฐ์์ ๋ํ๋๋ ์ธ๋ก ๋ฐ ์ฌ์ฉ์๋ค์ ์ ์น์ ํธํฅ์ฑ์ ๋ถํฌ ์ฐ๊ตฌ ํ๋ก์ ํธ
- Twitter Fukushima Rumor/FakeNews Diffusion Pattern Analysis
- Inbound/Outbound ์ฐ๊ฒฐ์ ํตํด RT ํ์ฐ ๋คํธ์ํฌ ํจํด ๋ถ์
ํ์ฟ ์๋ง ์์ ์ฌํ์ ๊ด๋ จํด ํธ์ํฐ์์ ๋ํ๋๋ ์ ์/๋ฃจ๋จธ ๋ฑ์ RT ํจํด ๋ถ์ ๋ฐ Classifer ์ ์ ํ๋ก์ ํธ
ย
NEXON Korea (2017.10. ~ 2019.02.)
์ธํ
๋ฆฌ์ ์ค๋ฉ์ค ์ด๋ทฐ์งํ์งํ SW Engineer
- Live(Game) Bot Detection
- ๋ฐ์ดํฐ ๋ถ์ ๋ชจ๋ธ ๊ฐ๋ฐ (with Pyspark)
- ๋ถ์ ๊ฒฐ๊ณผ ๋์๋ณด๋ ๊ฐ๋ฐ (with Django/Vue)
- Docker ๊ธฐ๋ฐ ๊ฐ๋ฐ ๋ฐ ๋ฐฐํฌ (with AWS ECR)
๊ฒ์ ๋ด ์์ ์ฅ ํน์ ํต๊ณผ ๊ฐ์ ๋ถ๋ฒ ํ๋ก๊ทธ๋จ์ ์ด์ฉํ ๊ณ์ ์ ํ์งํด ๋ณด์ฌ์ฃผ๋ ์๋น์ค
- ๋ฅ๋ฌ๋ ๊ธฐ๋ฐ ์๋ฒ๋ฆฌ์ค ์๋ ์ดํ(๊ฒ์) ์ํต ํ์ง ์๋น์ค
- ๋ฅ๋ฌ๋ ๋ชจ๋ธ ์๋ฒ๋ฆฌ์ค ์ถ๋ก Data flow ๊ตฌ์ฑ
- ์ค์๊ฐ Inference ๊ฒฐ๊ณผ ๋์๋ณด๋ ๊ฐ๋ฐ
FPS ๊ฒ์ ์ด๋ฏธ์ง ๊ธฐ๋ฐ ๋ถ๋ฒ ํ๋ก๊ทธ๋จ ํ์ง ์๋น์ค
- ๋ฅ๋ฌ๋ ๊ธฐ๋ฐ ์๋ฒ๋ฆฌ์ค ์์ค ํ์ง ์๋น์ค
- ๋ฅ๋ฌ๋ ๋ชจ๋ธ ์๋ฒ๋ฆฌ์ค ์ถ๋ก Data flow ๊ตฌ์ฑ
- Batch Inference ์๋น์ค ํ์ด์ง ๊ฐ๋ฐ
์์ค ๋ฐ์ดํฐ ํ์ง๊ธฐ๋ฅผ ์๋ฒ๋ฆฌ์ค API๋ก ๊ตฌ์ฑ
์ฐ์ํํ์ ๋ค (2017.07. ~ 2017.08.)
์ฐ์ํํ
ํฌ์บ ํ 1๊ธฐ ์ธํด, Web Frontend track
Academic
์์ธ๋ (2020.03. ~ 2022.02.)
๋ฐ์ดํฐ์ฌ์ด์ธ์ค ์์ฌ
์์ธ๊ต๋ (2015.03. ~ 2020.02.)
์ด๋ฑ๊ต์ก ์ ๊ณต, ์ปดํจํฐ๊ต์ก ์ฌํ์ ๊ณต
Opensource Projects
๐ KoAlpaca: Korean Alpaca Model based on Stanford Alpaca (feat. LLAMA and Polyglot-ko)
Stanford Alpaca ๋ชจ๋ธ์ ํ์ตํ ๋ฐฉ์๊ณผ ๋์ผํ ๋ฐฉ์์ผ๋ก ํ์ต์ ์งํํ, ํ๊ตญ์ด Alpaca ๋ชจ๋ธ
๐ ์ฐ๋ฆฌ๊ฐ ์ฝ์ ๋ ผ๋ฌธ์ ์ฐพ์์, Cite.GG
READ ME!
๋น์ทํ ๋ ผ๋ฌธ ์ถ์ฒ?
Google Scholar๋ Semantic Scholar, ํน์ ๊ทธ ์ธ์ ์ฌ๋ฌ๊ฐ์ง ๋
ผ๋ฌธ ๊ฒ์ ์๋น์ค๋ค์์๋ ์ฐ๋ฆฌ๊ฐ ๊ฒ์ํ/์ ์ฅํ ๋
ผ๋ฌธ์ ๊ธฐ์ค์ผ๋ก ์ฐ๋ฆฌ๊ฐ ๊ด์ฌ๊ฐ์ง๋งํ ๋
ผ๋ฌธ์ ์ถ์ฒํด์ค๋๋ค.
์ด ์ถ์ฒ์ ์ํด์ ์๋ง์ ์๊ณ ๋ฆฌ์ฆ๊ณผ, ์ต๊ทผ์๋ ๋ฅ๋ฌ๋์ ์ฌ์ฉํด ์ถ์ฒ์ ํด์ฃผ๋ ์์คํ
๋ ๋์ค๊ธฐ๋ ํ์ต๋๋ค.
ํํธ, ๊ฐ์ฅ ๊ธฐ๋ณธ์ ์ด์ง๋ง ์ง๊ด์ ์ธ,ย "๊ทธ๋์, ๋ค๋ค ์ธ์ฉํ๋, ๋ค๋ค ์ฝ์์ง๋ง ๋๋ง ์์ฝ์์ง๋ง ๊ผญ ์ฝ์ด์ผ ํ๋ ๋
ผ๋ฌธ์ ์ด๋ค ๋
ผ๋ฌธ์ธ๋ฐ?"ย ๋ผ๋ ๋ฌธ์ ์ ๋ํ ๋ต์ ํ๋ ์๋น์ค๋ ๋ฑํ ์์ด๋ณด์ด๋๊ตฐ์. (์๋๋ฐ ์ ๋ง ๋ชจ๋ฅผ์๋ ์์ต๋๋ค๐
)
๊ทธ๋์, ์ ๋ฌธ์ ์ ๋ํ ๋ต์ ์ฌํํ๊ฒ ์ฐพ์๋ณด๊ณ ์ ํ์ต๋๋ค.
๋ด๊ฐ ์ง๊ธ ์ฝ๋ ๋ ผ๋ฌธ๊ณผ ๋น์ทํ ๋ ผ๋ฌธ๋ค์ด ๊ณตํต์ ์ผ๋ก ์ธ์ฉํ ๋ ผ๋ฌธ์?
(์ด๋ป๊ฒ๋ ๊ตฌ๊ธ ์ค์ฝ๋ผ์์ ํค์๋๋ก ๊ฒ์ํด ์ด๋ค ๋
ผ๋ฌธ์ ์ฐพ์์) ์ฝ๊ณ ์๋ ๋
ผ๋ฌธ์ด ์๋ค๋ฉด..
- ์ด ๋ ผ๋ฌธ์ ์ธ์ฉํ ๋ ผ๋ฌธ๋ค์ด ์๊ฒ ์ง?
- ์ด ๋ ผ๋ฌธ์ ์ธ์ฉํ ๋ ผ๋ฌธ๋ค์ดย ๊ณตํต์ ์ผ๋ก ์ธ์ฉํ ๋ ผ๋ฌธ๋ค์ด ์๊ฒ ์ง!
- ๊ณตํต์ ์ผ๋ก ์ธ์ฉ๋ ๋ ผ๋ฌธ๋ค์ ์ธ์ฉ ํ์๋ณ๋ก ์ ๋ ฌํด๋ณด์!
- ๋ผ๋ ์์ด๋์ด๋ฅผ ๊ตฌํํ ์๋น์ค ์ ๋๋ค.
KcBERT: Korean comments BERT
๐ค Pretrained BERT model & WordPiece tokenizer trained on Korean Comments
ํ๊ตญ์ด ๋๊ธ๋ก ํ๋ฆฌํธ๋ ์ด๋ํ BERT ๋ชจ๋ธ
KcELECTRA: Korean comments ELECTRA
๐ค Korean Comments ELECTRA: ํ๊ตญ์ด ๋๊ธ๋ก ํ์ตํ ELECTRA ๋ชจ๋ธ
Personal Interest
NLP / Social Data Analysis / Data Mining
Conference presentation
- ChatGPT๋ง ์ธ๊น? ํ๊ตญ์ด LM๋ ์์ด์ธ๊น?
@
ํ์ดํ ์น ํ๊ตญ์ฌ์ฉ์๋ชจ์ 2ํ ์ธ๋ฏธ๋
- ์จ๋ผ์ธ ๋ด์ค ๋๊ธ์ ์ ๋ง ์ฌ๋๋ค์ ๋ชฉ์๋ฆฌ์ผ๊น? - PART2
@
PyCon KR 2019
Details
Presentation Slide๐
PyConKR 2018 ๋ฐํ์ ๊ฐ์ง๋ง ์ข๋ ๋ถ์ ๋ฐ NLP์ ๋ฐฉํฅ์ ์ง์คํ ํ๋ก์ ํธ์
๋๋ค.
2018๋
๋ ๋ฐํ๋ ํน์ ์ผ์ ๋ฐ์ดํฐ๋ฅผ ํตํ ๋ถ์์ ์์ฃผ๋ก ์งํํ์๋ค๋ฉด, 2019๋
ํ๋ก์ ํธ์ ๊ฒฝ์ฐ ์ผ๋จ์/10๋ถ๋จ์ ๋ฐ์ดํฐ ์์ง์ ํตํด ์ ์ ์๋ณ๊ณผ ํจ๊ป Text Feature๋ฅผ ํตํด ์ ์ ๋ค์ ์ฑํฅ์ ํ๋ณํฉ๋๋ค.
๋ํ NLP๋ฅผ ํตํด ๋๊ธ์ ๋ํ๋๋ Political Bias๋ฅผ ์ธก์ ํ๋ ๊ฒ์ ๋ค๋ฃน๋๋ค.
- ์จ๋ผ์ธ ๋ด์ค ๋๊ธ์ ์ ๋ง ์ฌ๋๋ค์ ๋ชฉ์๋ฆฌ์ผ๊น? - ๋ค์ด๋ฒ ๋ด์ค ๋๊ธ ๋ถ์ ํ๋ก์ ํธ
@
Pycon KR 2018 (Non-disclosure Session)
Details
ํด๋น ํ๋ก์ ํธ๋ ๋ค์ด๋ฒ ๋ด์ค์์ ์ ๊ณตํ๋ ๋๊ธ์ ์ด์ฉํด ๋น ์ ์์ ์ผ๋ก ๋ณด์ด๋ ์ ์ ๋ฅผ ํ๋ณํ๊ณ , ํน์ ์ํฉ์์ ์ผ๋ฐ ์ฌ์ฉ์๋ค์ด ์ด๋ค ์์ผ๋ก ๋ฐ์ํ๋์ง์ ๋ํด ๋ถ์ํ ํ๋ก์ ํธ์
๋๋ค.
AWS Lambda๋ฅผ ์ด์ฉํ ์๋ฒ๋ฆฌ์ค ํฌ๋กค๋ง์ ์ด์ฉํ ๋ฐ์ดํฐ ์ ์ฌ๋ถํฐ PySpark๋ฅผ ์ด์ฉํ ๋ฐ์ดํฐ ETL์ ๊ฐ๋จํ ํต๊ณ์ ๋ฐ์ดํฐ ๋ถ์์ ์งํํ์์ต๋๋ค.
- ์ฒ์๋ถํฐ ์์๋ณด๋ ์น ํฌ๋กค๋ฌ
@
Pycon KR 2017
Details
Presentation Slide๐
ํ์ด์ฌ์ ์ฌ์ฉํ์ง๋ง ์น๊ณผ ํฌ๋กค๋ง์ ๋ํ ์ง์์ด ์์ ์ฌ๋๋ค์ ์ํด ํฌ๋กค๋ง์ ์ ๋ฐ์ ์ธ ๋ด์ฉ์ ๋ด์ ๋ฐํ์
๋๋ค. ํด๋น ๋ฐํ์ ํจ๊ป ํฌ๋กค๋ง ํํ ๋ฆฌ์ผ๋ ํจ๊ป ์งํํ์ต๋๋ค.
ํฌ๋กค๋ง ํํ ๋ฆฌ์ผ ์๋ฃ
ํ์ฌ ๋งํฌ๐
Presentation Slide๐
- ์ธ๋ฐ๋ง์ ์น ํฌ๋กค๋ฌ ๋ง๋ค๊ธฐ with Python @
GDG Campus Summer Party 2017
Data Engineering
Dev Conference presentation
- AWS Lambda๋ฅผ ํตํ Tensorflow ๋ฐ Keras ๊ธฐ๋ฐ ์ถ๋ก ๋ชจ๋ธ ์๋น์คํ๊ธฐ
@
AWS Summit Seoul 2018
Details
Presentation Youtube & Slide๐
Tensorflow์ Keras๋ฅผ ์ด์ฉํด ๋ง๋ Inference ๋ชจ๋ธ์ AWS Lambda์์ ์๋ฒ๋ฆฌ์ค๋ก ์๋น์คํ๋ ๋ด์ฉ์ ๋ด์ ๋ฐํ์
๋๋ค. TF/Keras์ ๋ํ ์ค๋ช
๋ถํฐ Transfer Learning์ ์ด์ฉํ ํ์ต์ ํตํด ์๋ก์ด ๋ชจ๋ธ์ ์์ฑํ ๋ค ํด๋น ๋ชจ๋ธ๊ณผ Tensorflow๋ฅผ AWS Lambda์์ ์ฌ๋ฆฐ ๋ค ์๋น์ค์ ์ฐ๋ํด Inference ๊ฒฐ๊ณผ๋ฅผ DynamoDB์ ์ ์ฌํ๋ ๋ถ๋ถ๊น์ง ๋ด์ ์๋น์ค ์ ์ฒด๋ฅผ Fully Serverless๋ก ๊ตฌํํฉ๋๋ค.
Cloud, Automation, Scaling, ServerLess
OpenSource Projects
- aws-lambda-py3
- AWS Lambda Layers๋ก ํจ์ ๊ณตํต์ฉ Python ํจํค์ง ์ฌ์ฌ์ฉํ๊ธฐ
- AWS Lambda์ Tensorflow/Keras ๋ฐฐํฌํ๊ธฐ โ ์ด ๊ธ ๋ด์ฉ์ ๋ฐํ์ผ๋ก AWS Summit ๋ฐํ๊ฐ ์ด๋ค์ก์ต๋๋ค.
AWS Lambda Layer์ ํจํค์ง๋ฅผ ์ฌ๋ฆฌ๊ธฐ ์ํด Pre-Compiled๋ ํ์ด์ฌ ๋ผ์ด๋ธ๋ฌ๋ฆฌ๋ฅผ ๋ฐฐํฌํฉ๋๋ค.
ํฌ๋กค๋ง, ํน์ ๋ฅ๋ฌ๋ Inference๋ฅผ ์ํ ์๋ฒ๋ฆฌ์ค ํจํค์ง ์ฌ์ฉ์ ๊ฐํธํ ํ๊ธฐ ์ํด ๋ง๋ Docker ๊ธฐ๋ฐ์ผ๋ก Amazon Linux ์์์ ์ด๋ฏธ์ง๋ฅผ ์ ์ํด ์ ๊ณตํฉ๋๋ค.
์
aws-lambda-py3
ํจํค์ง๋ฅผ ๋ง๋ค๊ณ ์ฌ์ฉํ๋ ๋ฐฉ๋ฒ์ ๋ด์ ๋ธ๋ก๊ทธ ๊ธ์
๋๋ค.Etc.
[๊ตญ๋ฏผ๋ํ๊ต] ๋น์ ๊ณต์๋ฅผ ์ํ ํ์ด์ฌ ๊ฐ์ (2018.12)
๊ตญ๋ฏผ๋ํ๊ต ๋น์ ๊ณต์ ํ์๋ค์ ์ํ ํ์ด์ฌ ์
๋ฌธ ๊ฐ์๋ก,
ํ์ด์ฌ ๊ธฐ์ด๋ถํฐ Pandas๋ฅผ ์ด์ฉํ ๊ธฐ์ด์ ์ธ ๋ถ์ ๋ฐฉ๋ฒ์ ์ตํ ํ
Kaggle Tutorial์ ์งํํด๋ณธ ๊ฐ์.
[ํจ์คํธ์บ ํผ์ค] ํ์ด์ฌ์ ํ์ฉํ ์ค์ ์นํฌ๋กค๋ง CAMP ๊ฐ์(1๊ธฐ, 2๊ธฐ, 3๊ธฐ) (2017.9 - 2018.3)
์น์ด ๊ตฌ์ฑ๋๋ ๋ฐฉ์๋ถํฐ python์ ์ฌ๋ฌ ํฌ๋กค๋ง ๋ผ์ด๋ธ๋ฌ๋ฆฌ๋ฅผ ํ์ฉํด ์ค์ ์ฌ์ฉํ ์ ์๋ ์์ค์ ํฌ๋กค๋ฌ๋ฅผ ๋ง๋ค ์ ์๋๋ก ์งํํ๋ ์ค์ตํ ํฌ๋กค๋ง ๊ฐ์
- ๊ฐ์ ์๋ฃ (Source code)
- ๊ฐ์ ์๊ฐ(์ธํฐ๋ทฐ)
- ์๊ฐ ํ๊ธฐ(์ธํฐ๋ทฐ)
[์์๋ํ๊ต] ํ์ด์ฌ์ ์ด์ฉํ ์น ํฌ๋กค๋ฌ ๋ง๋ค๊ธฐ ํน๊ฐ (2017.11)
ํจ์คํธ์บ ํผ์ค์์ ์งํํ ๊ฐ์ ๋ด์ฉ์ ๊ธฐ๋ฐ์ผ๋ก 1์ผ ํน๊ฐ ์งํ
[ํค์์ฆ๊ถ] ํ์ด์ฌ ๋ฐ์ดํฐ๋ถ์ ์ ๋ฌธ ๊ฐ์ (2017.5 - 2017.6)
Pandas ํจํค์ง๋ฅผ ์ด์ฉํ ๋ฐ์ดํฐ ๋ถ์ ์
๋ฌธ ๊ฐ์.
์ฆ๊ถ ๋ฐ์ดํฐ๋ฅผ ์ด์ฉํด ๊ฐ๋จํ ๋ถ์์ ํ๋ ์ฌ๋ก์ ํจ๊ป ์ค์ต์ ์งํํจ
[NEXON] ์ฌ๋ด ํฌ๋กค๋ง ๊ฐ์ & ์๋ฒ๋ฆฌ์ค ๋ฅ๋ฌ๋ ๊ฐ์
- ํ์ด์ฝ ๋ฐํ ์๋ฃ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ์งํํ ํฌ๋กค๋ง ๊ฐ์
- MNIST๋ฅผ PyTorch์ CNN์ ์ด์ฉํด ๋ง๋ Classification ๋ชจ๋ธ์ ์ ์ํ๊ณ , ํด๋น ๋ชจ๋ธ์ AWS Lambda๋ฅผ ์ด์ฉํด ์๋ฒ๋ฆฌ์ค API๋ก ๋ง๋ ๋ค Web Front ํ์ด์ง๋ฅผ ์ ์ํจ
ย
ย