알버트의 이상한 연구소

  • 홈
  • 태그
  • 방명록

논문요약 1

[논문 요약] BERT + RoBERTa 같이 보기

BERT + RoBERTa Brief Introduction to BERT and RoBERTa BERT Abstract & Introduction BERT는 Bidirectional Encoder Representations from Transformers의 줄임말로 Transformer의 Encoder architecture를 활용한 모델이다. BERT는 양방향으로 unlabeled된 data를 학습하였으며, BERT는 단순히 additional한 one output layer를 추가함으로써 쉽게 fine-tuning할 수 있는 모델이다. Pre-trained LM을 활용하는 전략은 현재 두가지가 있는데, 바로 feature-based와 fine-tuning이라고 할 수 있다. feature-base..

자연어 처리 2022.03.06
1
더보기
프로필사진

통계, Machine Learning, NLP에 대한 지식을 바탕으로 재밌는 걸 만들고자 합니다.

  • 분류 전체보기 (11)
    • 자연어 처리 (5)
    • 데이터 마이닝 (0)
    • 데이터 시각화 (0)
    • 피트니스 논문 (0)
    • 이상한 연구실 (3)
    • 다양한 후기들 (2)
    • 이모저모 (1)

Tag

Roberta, 텍스트마이닝, 퀀트, 빅데이터, Fin-NLP, 시계열분석, nlp, 논문요약, 논문리뷰, 자연어처리, 논문리딩, Bert, 알버트, 논문, 금융빅데이터, 금융공학, 이상한연구소, 학회, FIND-A, 코크리,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바