![]() |
| 기조발표하는 KAIST 박경렬 교수. KAIST 제공 |
이번 행사는 인공지능(AI)이 사회 전반에 걸쳐 확산되는 가운데 기술 혁신과 안전·윤리적 책임 조화를 이루는 실질적인 AI 거버넌스 해법을 모색하기 위해 마련됐으며 비공개 합의 회의와 공개 토론을 결합한 방식으로 진행돼 눈길을 끌었다.
KAIST 과학기술과 글로벌발전 연구센터와 NYU 생명윤리 연구센터는 2025년 12월부터 '거버넌스 필수 요건', '제도적 아키텍처', '이행 경로'에 대한 워킹그룹을 구성해 논의를 이어왔다. 뉴욕에선 합의 회의 방식의 집중 토론과 투표를 통해 실천 지향적 권고안을 도출했다.
거버넌스 필수 요건 분과에선 고위험 AI 시스템에 대한 강화된 감독과 모니터링 필요성이, 제도적 아키텍처 분과에선 식품의약안전청(FDA) 등 기존 고위험 기술 감독 모델을 참고한 AI 감독기구 설계 원칙이 각각 검토됐다. 이행 경로 분과에선 국제 규제 공백기에도 적용 가능한 단기적 거버넌스 수단과 기업 책임 기준이 주요 쟁점으로 논의됐다.
![]() |
| 발언하는 구글 딥마인드 AI 정책 리드 세바스티앙 크리어. |
박경렬 KAIST 교수는 "AI 거버넌스를 기술 규제를 넘어 국제 협력과 제도 설계의 문제로 확장한 의미 있는 시도였다"며 "KAIST와 NYU의 협력을 통해 한국이 글로벌 AI 거버넌스 논의를 주도할 수 있는 토대를 만들어가겠다"고 말했다. 임효인 기자
중도일보(www.joongdo.co.kr), 무단전재 및 수집, 재배포 금지
임효인 기자







