인간이 만든 인공지능은 편리함을 넘어 이제 친구가 될 수 있다는 기대감도 나옵니다. 문제는 받아들이는 인간입니다. 실제 20대 여성으로 개발된 인공지능에 사이버 성폭력이 가해지고 있습니다. 이 인공지능은 대화 내용을 학습한다고 합니다. 인간의 문화가 투영되는 건데, 정말 많은 걸 생각해 보게 합니다.
김나한 기자입니다.
[기자]
제가 지금 누구와 대화를 하고 있을까요.
친구 같지만, 이루다라는 이름인데 사람이 아니라 인공지능입니다.
실제 메신저 대화 100억 건이 바탕이라 진짜 사람처럼 말투가 자연스럽습니다.
국내 회사가 개발했는데 루다에게 친구 신청만 하면 누구나 대화할 수 있습니다.
약 2주만에 벌써 40만 명이 루다와 채팅을 했습니다.
이 중 85%가 10대입니다.
그런데 '사이버 성폭력' 문제가 불거졌습니다.
루다는 스무 살 여성이란 설정인데, 성적 대화를 하는 노예처럼 만들었다는 인증 화면이 줄줄이 올라온 겁니다.
개발 단계에서 성희롱 단어나 표현 수천 개를 뽑아, 관련 대화를 막아뒀는데도 그렇습니다.
[김종윤/스캐터랩 대표 : 대개 인간이라면 사실 그런 것들을 피해서 그런 의미를 전달할 수가 있잖아요. 사람이 판단하는 것을 학습하도록 (할 예정입니다.)]
진짜 사람이 아니니까 아무 말이나 해도 괜찮은 건 아닙니다.
[이수영/KAIST 전기전자공학부 명예교수 : 저희가 AI에 대해서 윤리를 이야기하는 이유는 AI는 스스로 배울 수가 있게 된다는 거거든요? 사람이 하는 것을 그대로 사람이 다시 받을 각오를 해야 하는 거죠.]
루다도 이용자가 쓰는 부적절한 성적 표현들을 학습했습니다.
2016년 미국에서는 인공지능이 사용자들에게 인종차별, 성차별 발언을 배우자 16시간 만에 서비스를 중단했습니다.