전체 글 13

[딥러닝][Text Adversarial Attack] NLP에서 Adversarial Attack의 분류

NLP에서 Adversarial Attack은 Similarity에 기준해 두갈래로 분류된다. [1] Visual Similarity (시각적 유사성) : 원래 입력과 아주 유사한 형태(word or sentence, 눈으로 보기에) 적대적 공격 중 일부는 모델의 예측을 변경 시키기 위해 가능한 적은 수의 문자를 변형하려고 시도한다. 보통 현실적인 범주의 오타를 말한다. rull-based의 맞춤법 검사기 또는 적대적인 오타를 수정하도록 훈련된 seq2seq 모델을 사용하여 이러한 공격을 상당히 효과적으로 방어할 수 있을 것으로 사료된다. visual Text attack recipe: deepwordbug, hotflip, pruthi, textbugger*, morpheus (ex) - i don't..

이론/NLP 2023.01.03

Linux에서 R설치하기(for Ubuntu)

오늘의 할일 ubuntu R 설치하는 법 알아보기 https://cran.r-project.org/index.html The Comprehensive R Archive Network cran.r-project.org 각자의 환경에 맞는 R 선택하기 Install R 우분투 터미널을 켜서 install R 부분의 코드를 야금야금 따라하면 된다. # update indices sudo apt update -qq # install two helper packages we need sudo apt install --no-install-recommends software-properties-common dirmngr # add the signing key (by Michael Rutter) for these re..

code/R 2022.12.29