[논문 소개] Adversarial Attacks Against Medical Deep Learning Systems

in #kr7 years ago

오늘 소개시켜드릴 논문은 Adversarial Attacks Against Medical Deep Learning Systems (https://arxiv.org/abs/1804.05296)이란 논문입니다. Harvard Medical School에서 쓰인 논문이지만 그닥 어려운 내용없고 쫄거 없는 내용입니다. 한마디로 하자면 "deep learning으로 만든 medical image 진단 시스템에 adversarial attack을 해 봤다!!" .. 이게 끝..

기술적으로 보자면 Adversarial attack에 대해 더 잘 정리된 논문을 소개시켜드리는게 좋고, 그런 논문은 차라리 최근 Adversarial attack를 하고 정리한 "Adversarial Attacks and Defences Competition (https://arxiv.org/pdf/1804.00097.pdf)"을 보시는게 더 좋고 저도 그 논문을 보고 공부하는 편이 더 좋다고 생각합니다.

이 논문에서 한 일은 아래 그림과 같습니다.

그러니깐.. adversarial example을 만들어서 실험..!! 끝 결과는 아래와 같습니다. 결과도 예상하는 바와 다르지 않다.. 입니다.

그럼에도 이 논문을 읽은 이유는 Medical School에서 쓴 논문이라 그런지 아닌지 모르지만, 기술적으로는 하나도 힘들지 않은 일을 했지만 분석은 기술에서 약간 벗어난 분석도 하고 있어서 입니다. 뭐 엔지니어들이라면 수학적으로 이게 맞네 공격을 더 했네 어떤 방법으로 하니 다 뚫렸네 하고 있겠지만..

Distinctive sources of vulnerability to medical adversarial attacks among medical deep learning systems 섹션을 읽어보시면 왜 medical 데이터에서 이런 공격에 대해 더 취약할 수 있는지 고민하고, 뒷 섹션들을 통해 그런 이슈에 대해 토론을 제시하고 있습니다. 의료 산업면에서 이런 면이 중요하지만, 기술적으로 해결이 다 되지 않는 이유에 대해서도 고민한 흔적이 약간 (정말이지만 약간) 있습니다. 이 부분이 더 중요하다고 생각해서 소개합니다. 뭐.. 이런 공격 어따써 .. 이러다가 자동화된 보험회사 속이는데도 쓸 수 있고.. 이러면서 읽었습니다.

도메인에 있는 분들이 이런 간단한 실험을 통해 이런 이슈를 많이 제시해 주시면 좋을거 같습니다. 실험은 남의 알고리즘 가져다가 잘 수행했지 새로운 알고리즘을 만든게 아니기에 코딩이나 그런게 많이 들지 않는다고 생각합니다. 그러나 그런 간단한 실험을 통해 문제를 제기하고 그 문제에 대해 환기하는게 좋았습니다.

Sort:  

Congratulations @jiwoopapa! You have completed some achievement on Steemit and have been rewarded with new badge(s) :

Award for the number of upvotes received

Click on any badge to view your own Board of Honor on SteemitBoard.

To support your work, I also upvoted your post!
For more information about SteemitBoard, click here

If you no longer want to receive notifications, reply to this comment with the word STOP

Upvote this notification to help all Steemit users. Learn why here!