안녕하세요 김어준입니다.
MIT 미디어 랩 연구원 조이 부올람위니는
아마존이 IBM에 의뢰해서 개발한 안면인식 프로그램이
흑인 얼굴을 제대로 인식하지 못하는 오류를 발견합니다.
AI를 훈련시키기 위해 입력된 데이터 세트가
이미 세상의 편견이 반영된 백인 중심이었던 거죠.
AI는 이 존재하는 인간의 편견과 편향까지 학습을 합니다.
그런데 국내 포털은 뉴스 노출의 편향과 관련한 각종 문제 제기에
AI가 뉴스의 선정, 배열, 배치를 결정한다고 항변을 하죠.
이 답변은 그 자체로 무책임합니다.
모든 책임을 이 AI에 떠넘기는 겁니다.
그래서 AI의 뉴스 선정엔 아무 문제가 없다는 식인 거죠.
그런 포털에 되묻지 않을 수가 없습니다.
AI는 왜 전문가 집단인 방역당국의
백신이 안전하다는 뉴스가 아니라
인과가 확인도 안 된 백신 사망 뉴스만
지난 6개월간 포털 메인에 줄기차게 노출을 한 겁니까
왜 AI는 전문가를 안 믿는 거죠?
조국의 말은 변명이고
윤석열의 말은 해명이라고 표현한 기사들에서
AI는 인간인 기자의 편견과 편향을
어떻게 걸러내는 겁니까?
뭘 학습했길래
인간의 편견과 편향을 구분할 수 있는 거죠?
인간의 어떤 개입도 없이
모든 뉴스의 분류가 AI에 의해
자동으로 선택, 배치되는 게 맞는 겁니까?
정말 그런 건가요?
김어준의 질문이었습니다.
우연찮게도
모 포털의 높으신 분이
어떤 언론사 출신이 오고 나서부터
몸 담으셨던 언론사와
그 언론사와 비슷한 성향의 언론사
기사들만 줄기차게 걸려있던데...
덕분에...
그 포털도 안 보게 되었지만...
ㅠㅠ
''김어준 생각' 이었습니다' 카테고리의 다른 글
6월 9일 김어준 생각 (0) | 2021.06.09 |
---|---|
6월 8일 김어준 생각 (0) | 2021.06.08 |
6월 4일 김어준 생각 (0) | 2021.06.04 |
6월 3일 김어준 생각 (0) | 2021.06.03 |
6월 2일 김어준 생각 (0) | 2021.06.02 |
댓글