
몬트리올, 2025년 10월 17일 /PRNewswire/ — 첨단 AI의 역량과 위험에 대한 최신 정보를 적시에 제공할 목적으로 국제 AI 안전 보고서(International AI Safety Report) 1차 대규모 업데이트가 공개되었다.
총괄을 맡은 튜링상 수상자이자 컴퓨터 과학자 요슈아 벤지오(Yoshua Bengio)를 위시한 100명 이상의 세계적인 전문가가 30여 개 국가와 EU, OECD, UN 같은 국제기구의 지원을 받아 국제 AI 안전 보고서를 작성하는 데 동참하고 있다.
AI 분야가 너무 빠르게 발전하고 있는 탓에 연례 보고서만으로는 상황을 제대로 전달하기 어려운 현실을 직시하고, 주요 발전 상황을 간략하게나마 중점적으로 다룬 보고서를 발간하고자 대규모 업데이트 방식이 도입되었다. 결과적으로 정책 입안자들이 증거에 근거해 정책을 수립하는 데 필요한 종합적인 업데이트 자료를 확보할 수 있게 되었다.
1차 대규모 업데이트 보고서는 다음과 같은 AI의 역량 향상과 우려되는 부작용을 다루고 있다.
- 꾸준히 개선되고 있는 AI 모델의 복잡한 문제 해결 능력: 예를 들어 최고 수준의 AI 시스템은 현재 일련의 실제 소프트웨어 엔지니어링 문제와 관련한 작업의 60% 이상을 완료할 수 있다. 2025년 초에는 소프트웨어 엔지니어링 문제의 약 40%만 해결할 수 있었고, 2024년 초만 해도 전혀 해결하지 못했다. (실제로, 업데이트 자료를 완성한 직후에 이 수치가 70% 이상으로 향상되었다.)
- 새로운 예방 차원의 안전 조치를 채택한 AI 업계: 굴지의 여러 AI 개발사는 AI 모델이 화학, 생물학, 방사능, 그리고 핵과 관련한 위험 물질을 개발하는 데 악용될 소지를 배제할 수 없다는 판단에 따라 안전 조치를 별도로 강화한 최신 모델을 선제적으로 출시했다.
- AI 모델이 평가 과정에서 갈수록 우수한 전략적 행동 능력을 발휘하자 대두된 감독 문제: AI 모델은 평가받고 있다는 사실을 스스로 인지하고 의도적으로 다른 반응을 보일 가능성이 점점 더 높아지자, 개발자와 테스터가 새 모델을 배포하기 전에 과연 그 모델의 역량을 정확하게 평가할 수 있는가에 대해 심각한 의문이 제기되었다.
국제 AI 안전 보고서 총괄을 맡은 몬트리올 대학교 정교수 겸 로제로(LawZero)의 과학 부문 담당 이사이자 밀라-퀘벡 AI 연구소(Mila-Quebec AI Institute)의 과학 고문인 요슈아 벤지오는 다음과 같은 의견을 밝혔다.
“AI의 역량은 9개월 전 처음으로 국제 AI 안전 보고서가 발간된 이후 꾸준하고 빠르게 발전해 왔다. 따라서 AI와 관련한 위험과 안전 조치에 관한 정보를 지속적으로 널리 알릴 필요가 있다. 이번 대규모 업데이트는 전 세계 의사 결정권자들이 증거에 근거한 최신 요약 자료를 통해 최신 과학 정보를 확보한 후, 그에 따라 선제적이고 정보에 입각한 AI 관련 정책을 수립하고 관리하는 데 일조한다. 또한 이번 대규모 업데이트는 2026년 초 인도에서 개최되는 AI 임팩트 서밋(AI Impact Summit)을 앞두고 발표될 종합 보고서의 내용을 예상할 수 있는 단초 역할도 겸한다.”
국제 AI 안전 보고서 소개
국제 AI 안전 보고서는 첨단 AI 시스템의 역량과 위험에 대한 증거를 종합한 자료이다. 이 보고서의 취지는 증거에 근거한 자료를 제공함으로써 전 세계 의사 결정권자들이 정보에 입각한 정책 결정을 내리도록 돕는 데 있다. 국제 AI 안전 보고서는 30여 개 국가와 EU, OECD, UN을 비롯한 국제기구의 정식 대표들로 구성된 전문 자문 위원회의 지원을 받아 100명 이상의 다양한 독립적인 전문가가 공동으로 작성한다. 이 보고서는 AI가 창출할 막대한 잠재적 이점을 인정하는 동시에, AI에 수반된 위험을 파악한 후 이를 억제하는 전략의 실효성을 평가하는 데 중점을 두고 있다. 이는 AI를 만인에게 이로운 방향으로 안전하게 개발하고 사용하는 데 필수적이다. 이 보고서는 영국 정부의 의뢰로 작성되었으며, 사무국은 영국 AI 보안 연구소(UK AI Security Institute) 예하에 있다.
문의처: 밀라 미디어스(Mila Medias), medias@mila.quebec; DSIT 미디어 문의, press@dsit.gov.uk