소프트웨어 정책연구소에서 몇일전 내 놓은 자료가 있는데, 최근 많은 사람들의 관심을 끌고 있는 생성형 AI가 윤리적 문제와 같은 잠재적 위험에 대한 우려에 대해 해외에서 추진되고 있는 인공지능 규제에 대한 연구현황 자료입니다.
오늘은 이 보고서를 읽고 간략히 정리 해 보고자 합니다.
생성형 AI의 위험성
먼저 생성형 AI의 위험성에 대해 언급하고 있는데, 생성형 AI 기술의 오작동, 악의적 사용, 블랙박스 모델 등으로 인해 사회적 피해와 그 결과의 해석에 많은 어려움이 발생하고 있다는 점을 소개하고 있습니다. 이에 수많은 AI 전문가들이 언젠가는 AI 기술이 인간의 통제를 벗어나 인류의 실존적 위협이 될 수 있다고 경고하는 내용도 포함하고 있습니다.
국제 규제 동향
먼저 2024년 5월, 유럽연합에서는 세계 최초로 인공지능 규제법인 "인공지능법"을 제정하였다고 합니다. 또한 이보다 1년 앞서 2023년 10월, 미국에서도 AI의 안전한 개발과 보급을 위한 행정명령이 발동되었으며, 영국에서도 2023년 11월 세계 최초로 AI 안전성 정상회의를 개최하고 AI 안전 연구소 설립을 발표하였다고 합니다.
AI 안전연구소 설립
이렇게 영국, 미국, 일본을 비롯한 여러 선진국에서 AI 안전연구소를 설립하고, AI 안전성 테스트 프레임워크를 개발하고 있으며, 각 연구소간 정보 교류 및 표준화에 협력하기로 협의되었다고 합니다. 이에 우리나라에서도 2024년 5월 AI 서울 정상회의를 통해 AI 안전연구소 설립을 공식화 하고 국제 협력에 적극 참여할 것을 발표했다고 합니다.
개인적인 생각이지만, 해외와는 달리 우리나라에서는 일시적이고 보여주기 식의 이벤트성 발표를 참 많이한다고 보는데, 특히 꾸준한 관심과 지원이 필요한 분야에 대해 보여주기 식의 정책은 많은 연구 결과가 축적되어야 비로소 성과가 나오는 일부 분야의 연구자들에게는 그 의지를 꺾는 아주 안 좋은 행정이라고 생각합니다. 부디 한국에서 출범하는 AI 연구소는 이런 이벤트성 정책이 아니라, 꾸준한 지원을 바탕으로 하는 훌륭한 연구소가 만들어지기를 고대해 봅니다.
AI 안전성 확보의 필요성
사실 AI 기술 발전은 사람들의 생각과 주변 환경에 많은 영향을 주고 있으며, 이를 활용한 다양한 산업의 확산은 생성형 AI가 주는 선순환적 요소일 것입니다. 하지만 활용 분야가 다양해 질 수록 우려의 목소리도 있는데, 데이터 기반의 AI 모델은 잘못된 학습과 인간의 악의적 활용으로 인해 윤리적 문제를 비롯한 각종 안전 문제에 직면할 수 있다는 것입니다. 하지만 안타깝게도 이러한 안전에 대한 정의와 체계적인 대응, 그리고 어떻게 하면 AI 안전성 확보가 이루어질 것인지에 대한 논의가 부족한 실정입니다. 따라서 국제 사회가 협력하여 AI 안전성에 대한 표준과 평가, 규제 등을 마련하는 노력을 시작했다는 점에서 매우 인상이 깊어지는 대목이었습니다.
정부 역할 강조
이부분은 저와는 생각이 좀 다른 부분도 일부 있긴 합니다만, 일단 정부의 AI 안전성 관련 기술 개발 주도, 정책 연구와 민관 협력, 그리고 국제 교류를 주도해야 한다고 기술되어 있습니다. 그러면서도 민간의 혁신을 저해하지 않고, 사회와 산업에 인공지능을 도입할 수 있도록 정부 주도의 AI 안전 연구와 정책 수립이 필요하다고 기술되어 있습니다.
이 부분에서 한가지, 정부에서 정책을 수립하고 기본적 연구 인프라를 확보해 주어야 한다는 점에서는 전적으로 동의하는 부분이지만, 획일적이고, 경직된 정부 조직에서 만들어지는 과도한 간섭과 제한은 오히려 AI 안전성 연구에 왜곡을 불러 올 수 있을 수도 있다고 생각합니다.
물론 정부가 주도하는 이런 정책이 잘 되길 바라는 마음은 변함이 없다고 이야기 하고 싶네요.
국제 협력의 중요성
AI 안전성 확보를 위해서는 국가 간의 협력과 정보 공유가 중요하며, 각국의 AI 안전 연구소가 협력 네트워크를 형성해 모범 관행을 공유해야 한다고 기술되어 있습니다. 또한 범세계적 차원에서 AI 규범과 표준화를 통해 AI 기술이 안전하게 발전할 수 있는 기반을 마련해야 한다고 이야기 하고 있습니다.
마치며...
이 보고서는 AI 기술의 빠른 발전 속에서 발생할 수 있는 잠재적 위험을 강조하며, 이를 관리하고 안전성을 확보하기 위한 국제적 노력과 협력의 필요성을 제안하고 있습니다. 빠른 기술의 발전으로 많은 사람들의 삶을 윤택하게 하며, 산업 발전의 큰 경쟁력이 될 수 있는 AI 기술이 부디 안전하게 잘 사용되었으면 하는 바램을 가져 봅니다.
이 글은 소프트웨어정책연구소 "해외 AI 안전 연구소 추진 현황 및 시사점" 보고서를 기반으로 작성되었습니다. ( https://spri.kr/posts/view/23760?code=issue_reports&study_type=&board_type=issue_reports&flg=)
2024.07.25 - [System & Software Engineering] - 인공지능과 소프트웨어 공학: 융합의 시대
2024.07.13 - [System & Software Engineering] - 소프트웨어 공학의 중요성: 의사소통과 협업을 중심으로
'System Engineering' 카테고리의 다른 글
Service API vs. Software API 비교 (0) | 2024.07.27 |
---|---|
Software API (Application Programming Interface)란 무엇인가? (0) | 2024.07.27 |
소프트웨어 정의 차량 (SDV, Software Defined Vehicles) 추진 전략 비교 (0) | 2024.06.20 |
MBSE (Model Based System Engineering) (1) | 2024.06.16 |
시스템 엔지니어링 개요 (0) | 2024.06.15 |