![]() |
| 황순욱 한국과학기술정보연구원(KISTI) 책임연구원 |
첫째는 에이전트의 진화다. 3월 마누스 AI(Manus AI)의 등장은 AI 에이전트 시대의 신호탄이었다. 복잡한 작업을 자율적으로 수행하는 에이전트 개념은 새롭지 않았지만, 이를 구현하는 프레임워크들이 쏟아졌다. 랭체인, 랭그래프, 커서AI와 같은 도구들이 개발자 커뮤니티를 뜨겁게 달궜다. 이들 프레임워크는 LLM에 '작업 분해', '도구 사용', '자기 검증' 능력을 외부에서 부여하는 방식이었다.
그러나 하반기의 풍경은 달랐다. 7월 키미 K2, 8월 GPT-5, 11월 제미나이 3가 차례로 공개되며 멀티스텝 추론과 도구 사용 등 에이전트 기능이 모델 자체에 통합되기 시작했다. 외부 프레임워크 없이도 모델 스스로 작업을 분해하고 도구를 선택하며 결과를 검증하는 능력을 갖추게 된 것이다. 에이전트가 LLM의 래퍼(wrapper)로 기능을 덧붙이는 수준을 넘어, LLM 자체의 기본 작동 방식으로 자리 잡는 구조적 전환이 일어나고 있다.
둘째는 평가 패러다임의 전환이다. 그동안 모델 경쟁은 MMLU와 같은 벤치마크 점수로 줄 세우는 식이었다. 하지만 벤치마크는 모델이 '무엇을 알고 있는가'를 측정할 뿐, '사람들에게 얼마나 유용한가'를 보여주기에는 한계가 컸다. 이 간극이 커지면서 전문가 기반 평가가 핵심 지표로 부상했다. 오픈AI의 GPT-5.1이 벤치마크보다 휴먼 평가(human eval)를 전면에 내세운 것은 상징적이다. 오픈AI가 도입한, 경제적 가치가 있는 실제 작업에 대한 모델 성능을 측정하는 새로운 평가 지표인 GDPVal은 단순한 정답률이 아니라 AI가 내놓은 결과물이 전문가의 눈높이에서 얼마나 쓸모 있는지를 본다. 기술 경쟁의 초점이 '누가 더 문제를 잘 맞히나'에서 '누가 더 인간 전문가처럼 사고하고 협업하는가'로 옮겨가고 있는 것이다.
셋째는 학습 및 스케일링 방법론의 재발견이다. 지난 10여 년은 '데이터와 연산량을 더 넣으면 성능은 따라온다'는 스케일링 법칙의 시대였다. 더 이상 가용한 인터넷 데이터가 없다는 고갈론과 함께 "스케일링 법칙은 끝났다"는 회의론도 나왔다. 그러나 최근 출시된 제미나이 3는 스케일링 법칙이 여전히 유효하다는 쪽에 힘을 실었다. 프로젝트를 이끈 구글 딥마인드의 오리올 비냐스는 X(구 트위터)에 "The secret behind Gemini 3?"라는 글을 올려, 비밀은 단순하지만 강력하다며 "사전학습과 사후학습 모두를 개선했다"고 밝혔다. 구체적 레시피는 밝히지 않았지만, LLM 학습 단계에서 여전히 큰 도약이 가능하다는 메시지는 분명하다.
한편 스케일링 법칙 자체를 다시 묻는 움직임도 있다. 오픈AI 공동 창업자였다가 세이프 수퍼인텔리전스(SSI)를 세운 일리야 수츠케버는 최근 대담에서, 지금의 사전학습과 강화학습 조합만으로는 모델이 "기묘하게 똑똑하면서 동시에 멍청한" 상태에 머문다고 진단했다. 더 많은 데이터와 더 큰 모델보다 "어떻게 학습시킬 것인가"라는 질문이 중요해졌으며, 스케일링 시대를 지나 다시 연구와 발견의 시대로 돌아가야 한다고 주장한다.
결국 두 시각은 같은 지점으로 수렴한다. 단순 확장 스케일링의 시대는 저물고, 잘 설계된 스케일링과 새로운 학습 방법을 찾는 연구의 시대가 시작됐다는 것이다. 2025년은 딥시크 R1, 마누스 AI, 키미 K2, GPT-5, 제미나이 3로 이어진 파도 속에서 에이전트·평가·학습이 각각 새로운 방향으로 진화한 해였다. 2025년이 방향을 정립한 해였다면, 2026년은 그 방향을 향해 본격적으로 달려가는 해가 될 것이다. 에이전트·평가·학습 패러다임의 변화가 이론적 담론을 넘어, 우리가 일하고 배우고 살아가는 방식을 실질적으로 바꾸는 출발점이 되는 2026년 새해를 기대해 본다. 황순욱 한국과학기술정보연구원(KISTI) 책임연구원
중도일보(www.joongdo.co.kr), 무단전재 및 수집, 재배포 금지
임효인 기자






