본문 바로가기

AI Design

AI 가이드라인, 원칙 이야기 #1 (알고리즘 윤리)

728x90

인공지능은 어떻게 학습해야 할까? 결과적으로는 어떤 확률로 어떤 결정을 내리고 예측하고 대답해야 할까?

숫자로 딱 떨어지는 수학적인 결과는 오해의 소지가 적을 수도 있으나 정성적, 감성적으로 다가서는 인간의 대화에서의 선택들은 훨씬 모호하고 애매한 지점들이 존재한다.

 

싫다, 증오한다, 미워한다, 불쾌하다, 마음에 들지 않는다 등의 미묘한 감정들을 숫자로 이루어진 통계값으로 얼마나 정확히 선택할 수 있을까? 아니 어떤 단어들을 선택해야 할까?

 

이런 대화 외에도 정말 애매해 보이는 인공지능 자율주행차량의 윤리에 대해 고민하게끔 하는 테스트가 있다. 

MIT에서 만든 Moral Machine이라는 설문인데, 이 설문을 보면 사람조차 선택하기 어려운 상황들이 다양한 케이스별로 존재함을 알 수 있다. 내가 도로 바리케이트에 부딪쳐 다쳐야 하는가, 바리케이트를 피해 사람들을 다치게 해야 하는가?

 

https://www.moralmachine.net/

 

Moral Machine

A platform for public participation in and discussion of the human perspective on machine-made moral decisions

moralmachine.mit.edu

 

인공지능은 어떤 윤리를 가져야 하는걸까?

 

#1. [EU] Ethics guidelines for trustworthy AI 

#2. [과학기술 정보 통신부] 인공지능 윤리 가이드

#3. [미국 연방거래위원회(FTC)] AI와 알고리즘 이용에 대한 지침

#4. [카카오] 알고리즘 윤리 헌장

 

자세한 가이드는 아래 링크에서 확인이 가능하다.

brunch.co.kr/@monglec/40

 

인공지능, 알고리즘 윤리의 중요성

국가, 정부, 기관, 기업별로 알아보는 인공지능 윤리가이드 | 최근 스케터랩의 인공지능 챗봇 이루다로 인해 다시금 인공지능 윤리에 대한 내용들이 이슈화되고 있다. 상대적으로 소중하게 다루

brunch.co.kr