알버트의 이상한 연구소

  • 홈
  • 태그
  • 방명록

Roberta 1

[논문 요약] BERT + RoBERTa 같이 보기

BERT + RoBERTa Brief Introduction to BERT and RoBERTa BERT Abstract & Introduction BERT는 Bidirectional Encoder Representations from Transformers의 줄임말로 Transformer의 Encoder architecture를 활용한 모델이다. BERT는 양방향으로 unlabeled된 data를 학습하였으며, BERT는 단순히 additional한 one output layer를 추가함으로써 쉽게 fine-tuning할 수 있는 모델이다. Pre-trained LM을 활용하는 전략은 현재 두가지가 있는데, 바로 feature-based와 fine-tuning이라고 할 수 있다. feature-base..

자연어 처리 2022.03.06
1
더보기
프로필사진

통계, Machine Learning, NLP에 대한 지식을 바탕으로 재밌는 걸 만들고자 합니다.

  • 분류 전체보기 (11)
    • 자연어 처리 (5)
    • 데이터 마이닝 (0)
    • 데이터 시각화 (0)
    • 피트니스 논문 (0)
    • 이상한 연구실 (3)
    • 다양한 후기들 (2)
    • 이모저모 (1)

Tag

텍스트마이닝, 자연어처리, 코크리, 금융공학, 논문, Bert, 학회, Fin-NLP, 금융빅데이터, 시계열분석, 논문리뷰, 논문요약, FIND-A, nlp, Roberta, 이상한연구소, 알버트, 퀀트, 빅데이터, 논문리딩,

최근글과 인기글

  • 최근글
  • 인기글
  • [A Short Survey Of NAVER AI NLP] 초기의 네이버 클로바 NLP 논문 읽기! (1) 2017년 2022.06.03 21:08
  • 박길성 교수님을 만나다. 2022.05.19 22:21
  • [논문요약] Sentence Classification for Investment Rules Detection 2022.05.16 14:03
  • 딥러닝 전에, 알아보자 시계열 분석! - (1) 시작하자 시계열! - 2021.12.30 22:44
  • 딥러닝 전에, 알아보자 시계열 분석! - (2) 정상성(Stationarity), 들어봤니? - 2022.02.18 18:14
  • 금융빅데이터연합학회 FIND-A(FBA), 1년간의 활동 후기 2021.12.06 10:47

최근댓글

  • 네이버 논문이 2020년 이후로도 올라와 있는 것 같은데 아닌가요? https://nav⋯

    이제이

  • 멋지십니다~ 잘보고 갑니드르르아아아따르릉

    미지의 당신

  • 대단하시네요~ 저도 잘 보고 갑니드아~

    미지의 존재

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

  • 2022/06
  • 2022/05
  • 2022/04
  • 2022/03
  • 2022/02

Calendar

«   2023/03   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31

방문자수Total

4,666

  • Today : 0
  • Yesterday : 15

Copyright © Kakao Corp. All rights reserved.

티스토리툴바