2024/07 2

[ NLP ] The Impact of Debiasing on the Performance of Language Models inDownstream Tasks is Underestimated | Review

어제 올린게 편향을 직접적으로 마주하고 Downstream tesk에서 어떻게 발현되는지 였는데.오늘은 편향을 삭제하고 아니고에 따라서 Downstream tesk에서 어떻게 성능 차이가 알아보는 논문입니다.ACL 2023 shorts paper 부분에 개제된 논문으로 내가 하고 있는 연구에 희망을 봤달까...이것도 급하게 정리한거라 정리가 영 맘에 안들어서 일단 개제하고 다음으로 미룰예정  논문 "The Impact of Debiasing on the Performance of Language Models in Downstream Tasks is Underestimated"는 편향 제거가 언어 모델의 성능에 미치는 영향을 다룸. 같은 해에 같은 학회에서 편향에 대한 이야기가 두번이나 다뤄졌음. 서치하다..

논문/리뷰 2024.07.17

[ NLP] From Pretraining Data to Language Models to Downstream Tasks:Tracking the Trails of Political Biases Leading to Unfair NLP Models | Review

이러다 마지막 리뷰로부터 1년이 지나게 생겨서 내일 세미나에서 리뷰할 논문에 대한 간단한 리뷰를...ACL 2023 longpaper에서 BEST Paper로 뽑힌 논문입니다.NLP 모델들의 정치 성향 습득을 corpus에 대한 분석으로 잘 알려주는 논문엄청난 실험량을 리뷰에 담아내기 한계가 있었음으로 직접 보는것을 매우 강추합니다. 올해 ACL 2024도 어떤 좋은 논문이 나올지 기대가 되네용.내용 정리Abstract LM은 뉴스, 토론 포럼, 책, wikipedia 등 다양한 데이터 소스에 대해서 pretrained. 오픈 소스의 특성상 데이터 전반에 상당한 사회적 편향이 담김(민주주의 아이디어를 찬양하면서도 편향된 의견이 같이 담김) 저자들은이런 corpus로 훈련한 LM의 정치적 편견을 측정정치적..

논문/리뷰 2024.07.16