우리 아이가 직접 배우는 인공지능 편견 이해하기 2탄!
그림으로 알아보는 데이터 편향 이야기
지난번에 그림 그리기 사이트 몇 개 소개해줬잖아? 오늘은 그거랑 관련해서 '데이터 편향'이라는 좀 어려운 이야기를 쉽게 풀어볼게.
왜 내 변기 그림은 인식 못했을까? 🤔
내가 '퀵드로'라는 앱으로 변기를 그렸는데, 왜 내 그림은 변기로 인식 못했을까 궁금했어. 그래서 퀵드로의 데이터셋을 한번 살펴봤지.
-
다른 사람들은 변기를 이렇게 그렸어!
- 쪼그리고 앉아서 그리는 사람도 있고, 변기에 앉아있는 사람까지 그린 사람도 있더라.
- 만약 땅에 구멍 파고 볼일 보는 나라에 사는 사람이라면 변기 모양을 상상도 못 하겠지?
- 이렇게 사람들의 그림에는 그 사람이 사는 곳의 특징이나 미적인 감각이 드러나.
-
근데 왜 내 그림은 비슷했는데 인식을 못했을까?
- 구글 블로그를 보니 퀵드로는 전 세계 100개 나라에서 2천만 명이 그린 8억 장의 그림을 모았대. 정말 어마어마하지?
- 이 그림들을 겹쳐보니 고양이 같은 건 나라마다 조금씩 달라도 비슷한 특징이 보이더라.
- 하지만 머그컵 손잡이가 반대 방향이거나, 의자가 앞이나 옆을 향하는 것처럼 문화권마다 확연히 다른 그림들도 있었어.
데이터가 부족하면 생기는 문제점 📉
-
신발 그림의 비밀: 퀵드로에서 신발을 그리라고 했을 때, 사람들은 대부분 운동화만 그렸대. 그래서 인공지능은 운동화만 신발로 인식하게 된 거야. 하이힐은 신발로 인식 못했지. 우리가 자주 그리는 것만 학습하게 되는 거지.
-
성별, 인종, 소득까지? 😱
- 물리학자를 학습시키고 싶었는데, 인공지능은 그걸 남자와 여자로 나눠버렸대.
- 인공지능은 아이디어를 성별, 인종, 소득 같은 것과 잘못 연결시킬 수 있어. 예를 들어 '의사'라고 검색하면 남자 사진이 많이 나오는 것처럼 말이야.
- 만약 미인대회 우승자들 사진으로만 학습시킨 인공지능이 심사를 맡으면, 백인만 계속 우승하게 될 수도 있어.
실제 사례들 🚨
-
아마존 채용 프로그램: 아마존의 인공지능 채용 프로그램은 남성 지원자를 선호하는 회사 기록으로 학습해서 여성 지원자에게 감점을 줬어. 심지어 여성 체스 동아리 회장이라는 항목에서도 말이야.
-
구글 포토의 고릴라 사건: 구글 포토가 흑인 사진을 고릴라로 분류하는 엄청난 사건이 있었지.
-
MIT의 얼굴 인식 실험: MIT에서 얼굴 이미지를 분석했더니, 백인 남성은 잘 인식했지만 흑인 여성은 잘 인식하지 못하는 결과가 나왔어.
왜 이런 차이가 생길까? 🤷♀️🤷♂️
이런 차별의 가장 큰 이유는 바로 데이터가 편향적이기 때문이야.
- 편향된 데이터 = 편향된 결과: 편향된 데이터로 학습하면 결과도 편향될 수밖에 없어.
- 개발자의 편견: 인공지능을 만드는 사람들이 대부분 25~40세 백인 남성이라, 그들의 우선순위나 편견이 반영될 수 있다는 의견도 있어.
우리가 할 일은? 🤝
- 편향 주의: 우리는 이런 암묵적인 차별을 가져오는 편향을 주의해야 해.
- 다양한 데이터: 인공지능을 학습시킬 때는 다양한 사람들의 데이터를 사용해야 해.
- 코드닷알지 활용: 코딩 기초를 다질 때 활용하는 코드닷알지에서도 머신러닝 기본 개념과 데이터 편향의 중요성을 배울 수 있는 활동이 있대. 이건 나중에 따로 영상으로 소개해줄게!
결론적으로, 우리가 사용하는 인공지능은 우리가 주는 데이터로 학습하기 때문에, 데이터에 편향이 있으면 인공지능도 편향될 수밖에 없어. 그래서 다양한 데이터를 사용하고 편향을 주의하는 것이 정말 중요하단다!