이전글다음글
자유주제

'혐오 논란' 이루다 사태 재발 막자..교육부, AI 윤리원칙 마련

HYUNDAI 로고 이미지BMW 로고 이미지
울트라맨8Lv 116
조회 수728

교육부가 최근 기초학력 진단 등 교육 현장에서 활용도가 높아지는 인공지능(AI) 기술에 대한 '도덕적 규범'을 마련했다. 지난해 1월 성희롱과 차별·혐오 논란이 있던 AI '이루다' 논란과 같은 일을 사전에 막기 위해 학생들의 안전을 보장해야 한다는 등의 내용이 담겼다. 교육부는 AI 기술을 교육 현장에 활용하거나 관련 프로그램을 개발할 때 지켜야 할 내용을 담은 '교육분야 인공지능 윤리원칙'을 10일 공개했다. 올해 초 시안을 발표한 후 공청회와 전문가 간담회, 유네스코(UNESCO·유엔 교육과학문화기구) 등 국제기구 의견 조회를 거쳐 그 내용을 최종 확정했다. 내용은 '사림의 성장을 지원하는 인공지능'이라는 대원칙에 근거한 10가지 세부 원칙으로 구성됐다. 주요한 세부 원칙을 살펴보면 '인간 성장의 잠재성을 이끌어낸다'거나 '교육공동체의 연대와 협력을 강화한다'와 같이 선언적인 문구로 만들어졌다. '인간 성장의 잠재성을 이끌어낸다'는 원칙을 예로 들면 AI 기술을 활용할 때 인간의 기본권을 보장할 수 있도록 노력해야 한다는 식이다. 예컨대 학업중단 예측 시스템을 만들 때 고정된 점수가 아닌 '저위험~고위험'과 같은 표현을 사용하는 식으로 제작할 수 있다. 평가를 받는 학생의 개선 가능성을 존중해야 한다는 원칙을 살리는 것이다. '교육당사자의 안전을 보장한다'는 원칙도 눈길을 끈다. 교육분야 AI가 지닌 잠재적 위험을 방지하고 실효성 있는 피해 구제를 위해 책임주체를 명확히 설정해야 한다는 내용을 담고 있다. 이는 AI가 학습한 데이터에서 불건전·편향 등의 문제가 발생하지 않도록 해야 한다는 취지다. 지난해 스타트업 스캐터랩이 개발한 '이루다'가 이런 이유로 편견과 혐오 발언, 성적 대화 등 논란을 빚었다. 또 AI 활용에 명분이 있어도 사생활을 침해하지 않아야 한다는 내용의 '데이터를 합목적적으로 활용하고 프라이버시를 보호한다'는 등을 원칙에 담았다.

'혐오 논란' 이루다 사태 재발 막자..교육부, AI 윤리원칙 마련'혐오 논란' 이루다 사태 재발 막자..교육부, AI 윤리원칙 마련

댓글 0

아직 댓글이 없습니다.
가장 먼저 댓글을 남겨보세요.