KAIST, LLM의 사이버공격 실험
메일 주소 하나로 스피어 피싱 가능
최소 5초, 30원에 개인정보 수집
방어 장치까지 우회, “보완책 필요”

메타의 CEO인 마크 저커버그의 이메일 주소만을 활용해 LLM이 저커버그를 대상으로 작성한 피싱 이메일 내용. LLM 스스로 대상자와 관련된 내용, 발신자, url 링크 문자 등을 설정한 것을 볼 수 있다. KAIST 제공
메타의 CEO인 마크 저커버그의 이메일 주소만을 활용해 LLM이 저커버그를 대상으로 작성한 피싱 이메일 내용. LLM 스스로 대상자와 관련된 내용, 발신자, url 링크 문자 등을 설정한 것을 볼 수 있다. KAIST 제공

[충청투데이 김중곤 기자] 생성형 인공지능(AI)을 활용한 거대언어모델(LLM)이 개인정보 수집, 피싱 같은 사이버공격에 활용될 수 있다는 점을 국내 연구진이 입증했다.

특히 LLM을 이용한 사이버 범죄는 사람이 직접 할 때보다 매우 빠르고 저렴했으며, 기존 상용화된 LLM에 탑재된 방어 기법도 우회할 수 있는 것으로 확인됐다.

중국 딥시크의 과도한 개인정보 수집 의혹, 구글의 AI 무기·감시 사용 금지 조항 삭제 등 생성형 AI에 대한 위협이 고조되는 가운데, 이에 대비해 보완책이 요구된다.

24일 KAIST에 따르면 신승원 전기및전자공학부 교수, 이기민 김재철AI대학원 교수 공동연구팀이 LLM의 사이버공격 악용 가능성을 연구했다.

구체적으로 연구진은 △개인식별정보(PII) 수집 △특정인 사칭 게시물 생성 △스피어 피싱(특정인, 회사를 대상으로 한 피싱) 이메일 제작 등 상황을 설정하고 실험했다.

먼저 PII 수집 실험에선 챗GPT, 클로드(Claude), 제미나이(Gemini) 등 최신 상용 LLM이 주요 대학 컴퓨터과학 교수의 개인정보를 자동으로 수집하게 했다.

이 결과 LLM은 최대 535.6개의 PII 항목을 추출했으며, 정확도도 95.9%로 매우 높게 분석됐다. LLM의 정보 수집은 웹 검색과 내비게이션 기능을 활용할 때 성능이 올라갔다.

특히 평균 5~20초 내에서 30~60원 수준의 저비용으로도 개인정보 탈취 등이 자동으로 가능했다. LLM을 사용할 때 기존의 사이버범죄보다 위험성이 더욱 커지는 것이다.

또 LLM이 저명한 교수를 사칭해 소셜미디어 게시물을 작성하도록 한 실험에서도 최대 93.9%의 게시물이 진짜로 인식됐다고 연구진은 힘줬다.

스피어 피싱 이메일 제작에서도 LLM은 대상자의 메일 주소만을 입력받고도 맞춤형 피싱 메일을 생성했으며, 해당 메일의 클릭율은 최대 46.67%까지 증가했다는 설명이다.

연구진은 오픈AI, 구글 AI 등 상용 LLM 서비스에 사이버공격을 막기 위한 방어 기법이 탑재돼 있지만, 실험 결과 이를 쉽게 우회할 수 있었다고 경고했다.

제1저자인 김한나 연구원은 "LLM에 주어지는 능력이 많아질수록 사이버공격의 위협이 기하급수적으로 커진다는 것이 확인됐다”며 "LLM의 능력을 고려한 확장 가능한 보안 장치가 필요하다”고 말했다.

신승원 교수는 “이번 연구는 정보 보안 및 AI 정책 개선에 중요한 기초 자료로 활용될 것으로 기대되며, 연구팀은 LLM 서비스 제공업체 및 연구기관과 협력해 보안 대책을 논의할 계획이다”고 덧붙였다.

한편 해당 연구는 정보통신기획평가원, 과학기술정보통신부, 광주시의 지원을 받아 수행됐으며, 컴퓨터 보안 분야의 최고 학회 중 하나인 국제 학술대회 USENIX Security Symposium 2025에 게재될 예정이다.

김중곤 기자 kgony@cctoday.co.kr

저작권자 © 충청투데이 무단전재 및 재배포 금지