본문 바로가기

Study34

파이토치(PyTorch)와 텐서플로우(Tensorflow) GPU 사용환경 구축하기 진짜 호환 문제로 하루를 꼴딱 세웠길래 내가 나중에 이런 헛짓거리를 하지 않기 위해 정리하는 글이다... 필요한 것들 1. 당연하지만 컴퓨터에 GPU가 있어야한다. (필자의 GPU는 GeForce RTX 2060 Super이다.) 2. 안되더라고 샷건 치지 않을 마음가짐 CUDA Toolkit 설치하기 https://developer.nvidia.com/cuda-toolkit-archive CUDA Toolkit Archive Previous releases of the CUDA Toolkit, GPU Computing SDK, documentation and developer drivers can be found using the links below. Please select the release y.. 2021. 12. 13.
관용표현 중의성 해소를 위한 다층위 임베딩 연구 본 글은 한국어정호학회 학술대회에서 발표된 [관용표현 중의성 해소를 위한 다층위 임베딩 연구] 박서윤 외(2021)를 읽고 정리한 글입니다. 관용표현 같은 표현이 두 개 이상의 의미를 가진 중의적 언어 단위 인지하거나 표현할 시 한 덩어리로 인식됨 b/c '습관적'으로 사용되기 때문 미리 구성되어 있는(semipreconstructed) 표현들은 이미 언어 사용자의 머릿속에 존재한다 ⇒ Idiom Principle 해결법을 위한 연구 문맥 내 표현이 관용적으로 쓰였는지 분류 문맥 내 표현이 관용적인지 여부를 탐지(detection) 실험 방법 3가지 방식으로 임베딩 문맥에 나타난 표면형 그대로 임베딩 Idiom Principle을 적용해 관용표현을 '_'로 연결해 단일 토큰화 후 임베딩 연결된 표현을 s.. 2021. 12. 9.
Stanford CS224n - Lecture 2 Word Vectors and Word Senses 이 글은 https://youtu.be/kEMJRjEdNzM 강의를 듣고 제가 더 편하게 이해하기 위해 정리한 글입니다. 혹시 제가 잘못 이해한 부분이 있다면 댓글로 친절히 알려주시면 감사하겠습니다! 1. Word Vectors 저번 강의에 이어 optimization에 관한 이야기 진행되었다. Gradient Descent 방법으로 J(θ)를 줄이는 것이 목표였지만, J(θ)는 코퍼스 전체에 대한 함수이기에 계산량이 너무 크다는 단점이 있다. => because, 손실함수 계산시에 전체 train set를 이용함 또한, 한 번 파라미터를 업데이트하는데 오랜 시간이 소요된다는 단점도 있다. 1.1. Stochastic Gradient Descent(SGD) 이를 보안하기 위해 등장한 것이 SGD이다. 손.. 2021. 7. 29.
Stanford CS224n - Lecture 1 Introduction and Word Vector 이 글은 https://youtu.be/8rXD5-xhemo 강의를 듣고 제가 더 편하게 이해하기 위해 정리한 글입니다. 혹시 제가 잘못 이해한 부분이 있다면 댓글로 친절히 알려주시면 감사하겠습니다! 1. Human Language 인간의 언어는 인류 등장 10만년의 시간을 생각하면 생각보다 근래의 발명된 것으로 볼 수 있다. 인간의 언어는 의사소통의 수단으로 다른 동물들처럼 뿔을 만든다던지, 발톱을 발달시키지 않고 인류는 의사소통을 하나의 생존 수단으로 발전 시켜 지금까지의 발전을 이룩했다. 이런 언어는 몇 가지 신기한 특징을 지니고 있다. (물론 신기한건 내 기준!) 인간의 언어는 아주 큰 컴퓨터 네트워크와 비슷하다 하지만 빠른 것이 무엇보다 중요한 네트워크와는 다르게 인간의 언어는 느리다... 인간.. 2021. 7. 10.