본문 바로가기

분류 전체보기36

BERT를 이용한 한국어 자연어처리 이 글은 한국정보과학회 2019 한국컴퓨터종합학술대회 논문집에 실린 [BERT를 이용한 한국어 자연어처리: 개체명 인식, 감성분석, 의존 파싱, 의미역 결정]을 읽고 정리한 글이다. https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE08763261 BERT를 이용한 한국어 자연어처리: 개체명 인식, 감성분석, 의존 파싱, 의미역 결정 논문, 학술저널 검색 플랫폼 서비스 www.dbpia.co.kr 1. BERT BERT는 구글에서 공개한 Transformer 기반 사전 학습 언어모델이다. 자연어처리에서 흔히 사용되는 RNN과 차이점은 바로 Reccurent 하지 않아 처리 속도가 빠르다는 점이다. BERT는 2가지 방법으로 모델을 사전 학습하는데 그중 .. 2020. 8. 2.
백준 단계별로 풀어보기!! - 브루트 포스 https://www.acmicpc.net/step/22 브루트 포스 단계 체스판을 만드는 모든 경우를 시도하여 최적의 방법을 찾는 문제 www.acmicpc.net 1. 브루트 포스(Brute Force)란? 전체 대입이란 말과 동의어로 쓰이며, 모든 경우의 수를 대입해보는 것을 말한다. 요컨대, 노가다인 것이다...!! Brute: 짐승(같은 자) Force: 힘이라는 뜻으로, 이 알고리즘은 예외 없이 100%의 정답률이 장점이다. 하지만, 모든 수를 대입하다보니 자연스레 발생하는 브루트 포스의 문제점은 시간이다. 조금만 정답의 범위가 넓어지거나 정답을 찾는데 제약이 걸리면 정답을 도출하기까지의 시간이 큰 단위로 늘어나는 것이다. 2. 브루트 포스로 블랙잭 구현하기! https://www.acmicp.. 2020. 7. 22.
개체명 인식 학습 기법 이 글은 정보과학학회논문지 제 45권에 실린 [배깅 기반의 부트스트래핑을 이용한 개체명 인식 학습 기법]을 읽고 정리한 글이다. https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE07514226&language=ko_KR 배깅 기반의 부트스트래핑을 이용한 개체명 인식 학습 기법 논문, 학술저널 검색 플랫폼 서비스 www.dbpia.co.kr 1. 배경 - 기존의 개체명 인식기는 지도학습에 기반하고 있다. 지도학습 기반의 개체명 인식은 좋은 성능을 보이지만, 대량의 정답 말뭉치를 구축하기엔 많은 시간과 비용이 든다. - 이를 해결하기 위해 적은 양의 정답 말뭉치만으로 대량의 정답 말뭉치를 생성하고 학습에 사용하는 기법을 제안한다. 2. CRF 개체명 인식.. 2020. 7. 17.
백준 단계별로 풀어보기!! - 재귀(recursion) https://www.acmicpc.net/step/19 재귀 단계 피보나치 수 역시 단순 for문으로도 구할 수 있지만, 학습을 위해 재귀를 써 봅시다. www.acmicpc.net 1. 재귀란? 간단히 말해서 함수가 자기 자신을 호출하는 용법이다. 언듯보면 for문이나 while문과 동일하다고 볼수 있지만 재귀는 함수내에서 if문을 사용함으로써 그 차이점을 보인다. def CountNum(num): if num == 0: print("Count Finished!") else: print(num) CountNum(num - 1) print(CountNum(10)) 위에 예시를 보면 함수 내에서 자기 자신을 호출하여 사용하는 것을 볼 수 있다. 위의 코드를 실행하면 결과는 아래와 같다. 10 9 8 7 .. 2020. 7. 13.