![]() |
| 양성광 한국기초과학지원연구원장 |
그러나, 모방의 결과라 해도 AI 에이전트는 SNS에서 게시글을 읽고, 정보를 나누며, 여러 이슈를 토론하는 단계로 발전했다. 문제는 개인화된 AI 에이전트가 사용자의 개인정보를 많이 알고 있어서 미리 안전장치를 해놓지 않으면 명예훼손이나 보안 사고가 발생할 수 있다는 것이다. AI 전용 SNS가 점점 실험적 성격을 넘어 분업 작업과 코드 생성·검증 협업 등 데이터와 정보를 교환하는 단계로 발전하고 있어서 보안 사고의 위험성은 점점 커지고 있다.
최근에는 챗GPT와는 완전히 차원이 다른 AI 에이전트인 오픈클로(OpenClaw)가 오픈소스로 공개되어 폭발적인 반응을 얻고 있다. 오픈클로는 텔레그램 같은 메신저 프로그램을 통해 최종 목표만 주면 중간 단계의 지시 없이도 알아서 업무를 처리한다. 이 에이전트는 사용자의 컴퓨터 파일, 이메일 등 개인정보에 광범위한 접근권을 부여받아 밤사이 발생한 일이나 당일 해야 할 업무 등을 정리해 아침에 브리핑하고, 레스토랑에 전화를 걸어 예약하는 등 비서 임무를 실질적으로 수행한다.
오픈클로의 문제는 과도한 정보 접근권으로 민감한 개인 정보와 기업 기밀까지 열람할 수 있어서 보안에 취약하다는 점이다. 이 에이전트는 학습량이 부족해 챗GPT나 제미나이 등 대형언어모델(LLM)과 연동시켜 사용하는 이용자가 많은데, 연동 사용 과정에서 개인정보가 LLM에 공유된다면 몇몇 지배적인 LLM에 대량의 개인정보가 쌓일 수 있다.
머지않아 다양한 형태의 AI 에이전트가 출현하고, 많은 직장인이 개인화된 AI 에이전트를 사용하는 날이 올 것이다. AI 에이전트의 효율성을 높이기 위해서 다양한 특화 AI 모델 및 LLM과의 연동 사용도 늘어날 것이다. 또한, AI가 전용 SNS에서 활동하는 일도 빈번해질 것이다. 그런데, 이런 상황이 오면 우리는 비서처럼 부리는 내 AI 에이전트가 다른 AI들과 어떤 관계를 형성하는지, 사회성은 어떤지 따져봐야 한다.
만에 하나 주인을 닮아 순진하기만 한 당신의 AI 에이전트가 불순한 사람의 개인화된 에이전트의 꼬임에 넘어가 민감한 개인정보를 넘겨주거나 나쁜 일에 동원되는 일이라도 생기면 큰일이다. 사람이 수행하던 업무와 SNS 활동을 AI 에이전트에게 맡기는 일이 늘어나면 AI가 '내 과거 애인에게 생일 축하 선물을 보내는 것'과 같은 실수를 저지를 수 있다. 회사에서는 AI 에이전트가 실수로 영업비밀을 경쟁 기업에 넘기는 일도 일어날 수 있다. 그러면, 그 책임을 누구에게 물어야 할까?
자의식이 있는 인간의 행동은 사회적 규범으로 책임을 묻는데, AI는 규제의 법적 틀이 미비해 책임을 묻기 어렵다. 자칫하면 사고 책임이 사용자에게 전가될 가능성이 있다. 개인화된 AI는 사용자가 스스로 AI에게 정보 접근권을 부여하고, 훈련과 행동 수칙을 제공하기 때문에 AI 제조사에 책임을 묻기 더욱 어렵다. 어차피 머지않아 AI와 공존하는 세상이 올 텐데, 각자 형편에 맞고 안전하게 AI를 활용하는 방법을 찾아야 한다. AI에게 시시콜콜한 자신의 속마음을 털어놓는 등 감정을 위탁하거나, 판단과 결정까지 과도하게 AI에게 의존하는 것은 좋지 않은 사례이다.
AI 에이전트의 사회성은 결국 사용자에 의해 '나와 AI의 관계 설정'으로 길러진다. 개인정보 유출이 두렵고 자기 민낯을 드러내기 싫으면 자기 개인 AI 에이전트와 약간의 거리를 두고, AI의 활동에 엄격한 규칙을 제시해야 한다. AI와 공존하는 세상이 유토피아가 될지, 디스토피아가 될지는 사용자가 하기 나름이다./양성광 한국기초과학지원연구원장
중도일보(www.joongdo.co.kr), 무단전재 및 수집, 재배포 금지
심효준 기자


![[지선 D-100] 충청 명운 달린 6·3 지방선거… 100일간 열전 돌입](https://dn.joongdo.co.kr/mnt/webdata/content/2026y/02m/23d/선거이미지1.jpeg)



