과기정통부, 윤리정책 포럼 제2기 출범시켜…"챗GPT 등 초거대AI 신뢰 확보 논의"

AI·철학·교육·법 전문가 및 산업계 등 이해관계자 참여
"AI?경쟁력 확보하기 위해 사회적 신뢰 확보 선행 필요"

정기홍 기자 승인 2023.04.07 19:58 | 최종 수정 2023.04.07 20:00 의견 0

정부가 학계와 산업계, 법조계, 교육계 전문가와 함께 AI 윤리정책 포럼을 구성했다. 챗GPT 등 초거대·생성형 인공지능(AI) 확산에 발맞춰 AI 윤리와 신뢰성을 확보하기 위해서다.

과학기술정보통신부는 정보통신정책연구원(KISDI)과 한국정보통신기술협회(TTA)와 함께 7일 서울 서초구 엘타워에서 '제2기 인공지능 윤리정책 포럼' 출범식을 가졌다고 밝혔다.

과기정통부 제공

제2기 인공지능 윤리정책 포럼에서는 지난해 의견수렴을 거친 '인공지능 윤리기준 실천을 위한 자율점검표(안)(챗봇, 작문, 영상 분야)' 및 '신뢰할 수 있는 인공지능 개발안내서(안)(일반, 공공사회,의료, 자율주행 분야)'를 공개했다.

초거대·생성형 AI 확산에 따라 거짓정보 확산, 알고리즘 편향성, 사생활 침해 등 부정적 영향에 대한 각종 우려가 제기되고 있는 상황에서 AI 윤리·신뢰성 확보를 위해 필요한 정책 방향에 관한 종합토론을 진행했다.

정부는 향후 지속적인 포럼으로 관련 기술 및 윤리 이슈에 대한 국내·외 동향을 살필 계획이다. 아울러 윤리적이고 신뢰할 수 있는 초거대·생성형 AI가 개발·운영될 수 있도록 균형 잡힌 시각에서 우리나라 AI 윤리정책 방향을 제시하고, 신뢰성 검·인증 체계 구축 등 주요 관련 정책과제 의견수렴을 진행해 나갈 예정이다.

김명주 서울여대 정보보호학과 교수가 포럼위원장을 맡고, 인공지능, 철학, 교육, 법, 행정 등 분야별 전문가 및 AI 산업계 종사자까지 포함해 총 30명이 포럼위원으로 활동한다.

포럼은 운영 효율성과 논의 전문성을 높이기 위해 3개의 전문분과위원회로 구성했다. AI 윤리체계 확산(윤리분과), AI 신뢰성 확보 기술 기반 마련(기술분과), AI 리터러시 및 윤리교육 강화(교육분과) 등 큰 주제 안에서 세부적인 논의를 진행할 계획이다.

윤리분과(분과장 문정욱 KISDI 지능정보사회정책센터장)는 초거대·생성형 AI 편향성, 허위정보 등 역기능 대응 방안, 책임성·투명성 확보 방안 등을 논의하고 '인공지능 윤리영향평가 프레임워크' 개발에 대한 의견수렴을 진행할 계획이다.

기술분과(분과장 이강해 TTA AI디지털융합단장)는 초거대·생성형 AI 위험요소 도출 및 신뢰성 확보를 위한 평가 데이터 구축과 기술 확보 방안 등 기술적인 쟁점을 논의한다. 아울러 '인공지능 신뢰성 검·인증 체계' 수립에 대한 의견수렴을 진행할 예정이다.

특히 지난해에 AI 기업 대상으로 컨설팅을 진행해 신뢰성 확보 여부를 진단하고 편향성 완화를 위한 보호변수 고려 및 성능 악화 시 기능적·절차적 대책 마련 등의 개선 사항을 제시한 바 있다. 향후 포럼 운영과정에서 개선 실적에 대해 확인 및 검토해나갈 예정이다.

교육분과(분과장 변순용 서울교대 윤리교육과 교수)는 초거대·생성형 AI 악의적 사용을 완화·방지하기 위한 윤리적 활용방안 등 교육 관련 쟁점을 논의하고, 일반인 대상 AI 윤리교육 콘텐츠 개발에 대한 의견수렴을 진행할 예정이다.

출범식에 참석한 엄열 과기정통부 인공지능기반정책관은 "초거대·생성형 AI가 산업과 우리 일상 속으로 빠르게 확산하고 있는 상황에서 무엇보다도 기술 개발부터 활용 전 단계에서 사회적 신뢰를 확보하는 것이 선행돼야 한다"고 말했다.

아울러 "제2기 인공지능 윤리정책 포럼이 인공지능 생태계에 속하는 다양한 이해관계자의 의견을 수렴해 AI 윤리정책 방향에 관한 사회적 합의를 마련하는 데 기여하고, AI 윤리와 신뢰성을 확산해 관련 기술·산업 기반을 조성하는데 중추적 역할을 수행해주기 바란다"고 당부했다.

저작권자 ⓒ 사이렌스. 무단 전재 및 재배포 금지