로드 중...
현재 시스템이 작동되지 않습니다. 나중에 다시 시도해 주세요.
연간 인용횟수
중복된 서지정보
다음 학술 문서는 학술검색에서 병합되어 있습니다.
총 인용
횟수가 첫 번째 학술 문서에 대해서만 계산됩니다.
병합된 서지정보
이 '인용' 횟수는 학술검색의 다음 학술 문서에 대한 인용문을 포함합니다.
*
표시된 인용문은 프로필에 있는 학술 문서와 다를 수 있습니다.
공동 저자 추가
공동 저자
팔로우
이 저자의 새 학술자료
이 저자를 인용한 새 학술자료
이 저자의 연구와 관련된 새 학술자료
업데이트를 받을 이메일 주소
완료
내 프로필
내 서재
통계
알리미
설정
로그인
로그인
내 프로필 만들기
인용
전체
2019년 이후
서지정보
19
19
h-index
3
3
i10-index
0
0
0
12
6
2021
2022
2023
2024
1
4
12
2
공동 저자
Hyunju Lee
Gwangju Institute of Science and Technology
gist.ac.kr의 이메일 확인됨
Hongseok Choi
Electronics and Telecommunications Research Institute
etri.re.kr의 이메일 확인됨
Hyejin Cho
Gwangju Institute of Science and Technology
gist.ac.kr의 이메일 확인됨
팔로우
Dongha Choi
Gwangju Institute of Science and Technology
gm.gist.ac.kr의 이메일 확인됨
Natural Language Processing
Relation Extraction
Language Model
Knowledge Distillation
학술자료
인용
공동 저자
제목
정렬
서지정보순 정렬
연도순 정렬
제목순 정렬
인용
인용
연도
Extracting chemical-protein interactions via calibrated deep neural network and self-training
D Choi, H Lee
Findings of the Association for Computational Linguistics: EMNLP 2020
, 2020
7
2020
Domain Knowledge Transferring for Pre-trained Language Model via Calibrated Activation Boundary Distillation
D Choi, HS Choi, H Lee
Proceedings of the 60th Annual Meeting of the Association for Computational …
, 2022
6
2022
Early Stopping Based on Unlabeled Samples in Text Classification
HS Choi, D Choi, H Lee
Proceedings of the 60th Annual Meeting of the Association for Computational …
, 2022
4
2022
Re-Ranking System with BERT for Biomedical Concept Normalization
H Cho, D Choi, H Lee
IEEE Access 9, 121253-121262
, 2021
2
2021
현재 시스템이 작동되지 않습니다. 나중에 다시 시도해 주세요.
학술자료 1–4
더보기
개인정보처리방침
약관
도움말
학술검색 정보
검색 도움말