2. 인공지능
(AI, Artificial Intelligence)
기계로부터 만들어진 지능(인간 및
동물의 자연 지능과 반대되는 말).
컴퓨터 공학에서 이상적인 지능을 갖춘
존재, 혹은 시스템에 의해 만들어진 지능
(Reference: Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: A Logical Approach. New York: Oxford University Press. )
11. 데이터 살펴보기
Data Sources
● 서비스 데이터
○ 거래 내역 (구매, 이벤트 참여
등)
○ 로그 (서비스 내에서의
움직임)
○ 회원 정보
○ 서비스 아이템 및 운영 정보
(판매 물품, 금융 상품 등)
● 공개 데이터
○ 인터넷의 동영상
○ 인터넷의 텍스트
○ 샘플 데이터
16. 데이터 측면의 발생 가능 문제점
● 서비스 데이터
○ 가치중립적
○ 서비스의 성격에 따라 비윤리적인 데이터 저장, 활용 가능
○ 서비스 사용자에 대한 개인정보의 침해과 사용자 편의성, 접근 권한의
문제가 충돌
■ 데이터의 추상화/익명화 정도에 대한 논의 필요 (활용/관리 대비 개인
정보 침해의 문제)
○ 특정 데이터의 독점으로 인한 문제 발생 가능
● 공개 데이터
○ 윤리적, 사회적 가치와 맞지 않는 데이터 존재 가능
○ 사전 검열, 데이터 변경 등의 문제와 충돌
○ 데이터 편향성을 조율하기 어려움
19. AI 스피커 비서의 성별 : 고정된 성
역할, 차별 반영(그림 reference: http://www.dailymail.co.uk/sciencetech/article-4258122/Experts-reveal-voice-assistants-female-voices.html)
20. Tell the audience what you
expect to happen...
VR 비서 Vivi : 고정된/악용되는 성
역할
21. 그 외 오용 가능 사례
● 인권 침해: 위양성으로 발생할 수 있는 위험 사례
○ 데이터를 통한 감시
○ 예측 치안 관리 활동(Predictive Policing): ‘마이너리티 리포트'와 같은 범죄
예측 시스템을 통한 예상 범죄자 지정 및 감시
● 차별적/위법적 서비스 디자인
○ 섹서로이드
○ 불법 게임/서비스 봇
○ 데이팅 앱의 가짜 여성(사기용 봇)
25. 로봇법 프로젝트
● 인간권을 침해하지 않고 인간 향상 기술과 접목할 수
있는 방향으로의 로봇 지향
● 자율 주행 자동차, 수술 로봇, 인공 기관, 돌봄 로봇
(물리적으로 존재하고 많이 사용되는 형태)에
대해서만 정의
○ 로봇의 범위가 광범위해서 포괄적 정의가 어려움
● 구체적이고 투명한 법적 규제 필요성
○ 건강‧안전‧소비자‧환경, 법적 책임, 지적재산권, 프라이버시와
데이터 보호, 계약주체로서의 법적 거래 능력(로봇의 법적 인격
부여 문제)
○ AI의 창발적 특성으로 인한 로봇의 잠재적 위험에 대한 규제와
혁신 진흥의 목표를 모두 추구
● 법 이상의 기술적 규제 및 가치 중심 디자인 지향