Diese Präsentation wurde erfolgreich gemeldet.
Die SlideShare-Präsentation wird heruntergeladen. ×

201024 ai koeln (akemi yokota) auf japanisch

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Wird geladen in …3
×

Hier ansehen

1 von 57 Anzeige

201024 ai koeln (akemi yokota) auf japanisch

Herunterladen, um offline zu lesen

This Slide is for the Symposium "TECHNICAL AND ETHICAL ASPECTS OF ARTIFICIAL INTELLIGENCE IN JAPAN AND GERMANY". Here is the original Version in Japanese. In the Symposium I will use a german version with the help of JKI center in Koeln.
ケルン日本文化会館シンポジウム「日独両国におけるデジタル化の諸相」での報告「AI利活用社会のための法制度設計 ~日本の状況と未来の展望」スライドの日本語版です。当日会場ではドイツ語版が投影されます(横田は日本語で話し,同時通訳あり)ので、日本語話者はこちらを参照してください。

This Slide is for the Symposium "TECHNICAL AND ETHICAL ASPECTS OF ARTIFICIAL INTELLIGENCE IN JAPAN AND GERMANY". Here is the original Version in Japanese. In the Symposium I will use a german version with the help of JKI center in Koeln.
ケルン日本文化会館シンポジウム「日独両国におけるデジタル化の諸相」での報告「AI利活用社会のための法制度設計 ~日本の状況と未来の展望」スライドの日本語版です。当日会場ではドイツ語版が投影されます(横田は日本語で話し,同時通訳あり)ので、日本語話者はこちらを参照してください。

Anzeige
Anzeige

Weitere Verwandte Inhalte

Diashows für Sie (11)

Ähnlich wie 201024 ai koeln (akemi yokota) auf japanisch (20)

Anzeige

Weitere von Akemi Yokota (20)

Anzeige

201024 ai koeln (akemi yokota) auf japanisch

  1. 1. AI利活用社会のための法制度設計 ~日本の状況と未来の展望 Gestaltung des Rechtssystems für die AI- Nutzungs-Gesellschaft: Aktuelle Lage und Zukunftsperspektiven in Japan TECHNISCHE UND ETHISCHE ASPEKTE DER KÜNSTLICHEN INTELLIGENZ IN JAPAN UND DEUTSCHLAND Symposium Freitag, 23. & Samstag, 24. Oktober 2020 Chiba University, Graduate School of Social Sciences Assis. Prof. Dr. Akemi YOKOTA akemi@chiba-u.jp
  2. 2. なぜいま「法制度設計」(Gestaltung des Rechtssystems)か • 専門: 行政法学(Verwaltungsrecht) • 現在の研究テーマは「データ駆動社会における 情報行政法の基礎理論」(Grundprinzipien des Informationsverwaltungsrechts zur Erreichung einer neuen datengesteuerten Gesellschaft) • デジタル化社会における行政の在り方、情報と 行政の関係マインツ大学にて、昨年の10月から 2年間の予定で、研究滞在 p.2
  3. 3. Profile For Todays Theme 2016年10月から、総務省情報通信政策研究 所 AIネットワーク社会推進会議 影響評価分 科会 構成員(a member of committee on Impact and Risk Assessment in “The Conference toward AI Network Society” (MIC, Goverment of Japan)) 『ロボット・AIと法』第五章執筆 p.3
  4. 4. Japanese two Drafts of AI GUIDELINES- for International Discussions on R&D and Utilization Draft AI R&D GUIDELINES (2017) • Collaboration • Transparency • Controllability • Safety • Security • Privacy • Ethics • User assistance • Accountability AI Utilization Principles (2019) • Proper utilization • Data quality • Collaboration • Safety • Security • Privacy • Human dignity and individual autonomy • Fairness • Transparency • Accountability 4
  5. 5. 『ロボット・AIと法』「ロボット・AIの行政規制」 ロボット・AI総論とロボット・AI各論の相互関係構築の重要性 • 総論:ロボットやAIを開発運用する際に分野を 問わず議論されるべき課題を取り扱う局面 – 目指すべき価値を示す原則 – 分野横断的な装置 • 各論:分野ごとの制度内でのロボット・AIから 生じるリスクの制御のための規制枠組み • 横田明美「ロボット・AIの行政規制」弥永真生・宍戸常 寿(編)『ロボット・AIと法』第5章103-130頁、特に125 頁以下。 p.5
  6. 6. 「現在の状況」とは • 「WhatからHowの議論へ移行」 • (江間2019、111頁) • Whatの議論: – 「なぜ原則が必要か」「何が重要な論点か」 • Howの議論: – 「挙げられた原則や論点を具体的なガイドライン やベストプラクティスに落とし込んでいく」こと – どのように実現していくか p.6
  7. 7. 本報告の目的と内容 • 「原則」策定の次のステップとして、法形成の ために必要な議論は何か? • Ⅱ 現在の総論・各論の議論状況 • Ⅲ 技術と倫理と法~法の役割と複層性 • Ⅳ 日独の専門家意見書比較 p.7
  8. 8. Ⅱ 現在の総論・各論の議論状況 • 日本:総論では「原則」の策定にとどまり、各 論領域(イシューごと・分野ごと)の検討へ • ドイツ:DEK意見書は原則だけでなく「総論」部 分の立法提案にも踏み込む • EU:倫理指針から戦略へ(「人工知能(AI)白 書」と「欧州データ戦略」) p.8
  9. 9. 日本の状況 • 日本では、大きな原則の策定のあとは、イ シューごと・分野ごとの検討が進んだものの、 「総論」部分の議論の深化は明示的には行わ れていない p.9
  10. 10. 大きな原則 • 総務省情報通信研究所AIネットワーク社会推 進会議 – 「AI開発ガイドライン案(Draft AI R&D GUIDELINES)」(2017) – 「AI利活用原則(AI Utilization Principles)」(2019) • 内閣府及び統合イノベーション戦略推進会議 – 「人間中心のAI社会原則」(2019) – 「AI戦略 2019 ~人・産業・地域・政府全てにAI ~」 p.10
  11. 11. 各論的進展への接続は? • 各領域における対応 – 自動運転への対応 – ドローン対策のための航空法改正 – 保健医療分野でのAI開発と利用 – スマート農業など – 「AI・データの利用に関する契約ガイドライン」 • 法改正/法的拘束力のない通達・ガイドライ ン p.11
  12. 12. 批判:外向きの議論と内向きの議論の不接合 • 城山・江間(2020) :外向きの議論と内向きの議 論の不接合 – 国際会議に提示した議論が「政府内の他の各省庁 等の議論とは必ずしもリンクされていない」 – 各省庁が策定した分野ごとの「白書でも倫理的問題 や社会的な課題に関してはあまり触れられていない」 • 「AI戦略2019」も・・・ – 国全体におけるAI利活用のための課題を各省庁に – 普遍的価値への言及は、驚くほど少ない p.12
  13. 13. 直近の動き 「中間」の議論の進展 • 国家戦略特区や規制のサンドボックス制度 • デジタル・プラットフォーマー取引透明化法に に基づく「制御された自主規制」 • 個人情報保護法制改革 – 2020.5.6 個人情報保護法改正 – さらに:公的部門・自治体の個人情報保護法制 (いわゆる2000個問題)解決のための次の改 革? p.13
  14. 14. ドイツの状況 • データ倫理委員会(DEK)意見書 (2019年10月) https://datenethikkommission.de/gutachten/ において、ドイツ語版・英語版の本編・要約版の それぞれがDL可能。 p.14
  15. 15. ドイツの状況 • 一般的な倫理・法的原則と原理 • データの観点とアルゴリズムシステムの観点 から具体的に応答 • 名宛人は主として連邦政府、ただしEUレベル での立法提案 p.15
  16. 16. DEK意見書 要約版目次 • 主導的考え方 Leitgedanken (Guiding motifs) 05 • 一般的な倫理的・法的原則と原理 Allgemeine ethische und rechtliche Grundsätze und Prinzipien (General ethical and legal principles) 06 • データ Daten (Data) 08 • アルゴリズムシステム Algorithmische Systeme (Algorithmic systems) 17 • 欧州の道のために Für einen europäischen Weg(A European path) 27 • データ倫理委員会の構成員一覧 Mitglieder der Datenethikkommission(Members of the Data Ethics Commission) 28 • p.16
  17. 17. DEK意見書 本編 大目次 • 要約 Executive Summary 12 • A 導入 Einleitung (Introduction) 33 • B 倫理的・法的原則と原理 Ethische und rechtliche Grundsätze und Prinzipien(Ethical and legal principles) 39 • C 技術的基礎 Technische Grundlagen (Technical foundations) 49 • D 複合的データエコノミーの多層レベルガバナンス(多層的制御) Mehr-Ebenen-Governance komplexer Datenökosysteme(Multi-level governance of complex data ecosystems) 67 • E データ Daten (data) 79 • F アルゴリズムシステム Algorithmische Systeme (Algorithmic systems) 159 • I 欧州の道のために Für einen europäischen Weg (A European Path) 225 • 付録 Anhang (Appendix) 229 p.17
  18. 18. 欧州の状況 • 2019年4月 – ハイレベル専門家グループの倫理指針 • 2020年2月 – コミュニケーション(政策指針)「欧州のデジタル の未来を形成する」 – その具体的施策の第1弾として「人工知能(AI)白 書―卓越性と信頼に向けた欧州アプローチ」と 「欧州データ戦略」 p.18
  19. 19. 私見:総論と各論をつなぐ議論が豊富なDEK意見書 p.19 • 本編181頁・図9「EU法と分野ごとに具体化 された法における水平的(統一的)法によるア ルゴリズムシステムの規制」 – EU法における一般的水平的(均一的)な要件とし て(【EUアルゴリズムシステム規則、Verordunung für Algorithmische Systeme, EUVAS】)において規 定することを推奨(推奨事項㊸)
  20. 20. p.20 図9「EU法と分野ごとに具体化された法における水平的(統一的)法による アルゴリズムシステムの規制」 (DEK意見書181頁)
  21. 21. Ⅱ 技術と倫理と法~法の役割と複層性 • 法の複層性(das Mehrebenensystem)と監督 機関 • 「変化するアルゴリズム」という性質への対応 • 機械可読な法? p.21
  22. 22. 法の複層性と監督機関 das Mehrebenensystem und die Aufsichtsbehörden p.22 図5:データ保護体系の三層の独立性(Dreifache Ausdifferenzierung des Datenschutzregimes) Kürhling / Klar / Sackmann, Datenschutzrecht, 4. Auflage, Rn.207
  23. 23. データ保護法制を例とした法の複層性 • EU、各国法としてのドイツ連邦、ラント法の少なく とも3層のレベル • 一般法と領域ごとの特別法 – とくに非公的部門と公的部門の性質の差異 日本では? – 日本国の法律、都道府県条例・市町村条例 – 民間部門と公的部門の分割もある, – 特別法も多数(例:医療など) p.23
  24. 24. 監督機関を議論するときにも重要 • 権限の配分と組織構造 – 「どこで何を決めているか」 – 「どの組織がどの任務を担っているか」 • 「監督機関」を考える上では法の複層性対応 が必須 p.24
  25. 25. 変化する性質への対応 • 「メタデザイン」としての立法者 – 「デザインのデザイン」としての法 • 「ガイドライン」という位置づけや、自主規制・ 共同規制の導入につながる考え方 • 「バイデザイン」への期待と限界 p.25
  26. 26. 機械可読な法? • Kompetenzzentrum Öffentliche IT報告書 “Recht Digital Maschinenverständlich und automatisierbar “ (デジタルな法 機械理解可能で自動化可能) p.26 https://www.oeffentliche- it.de/publikationen?doc=104099&title=Recht+Digital+- +Maschinenverst%C3%A4ndlich+und+automatisierbar
  27. 27. 機械可読な法? • 機械に補助された法執行・あるいは法の全部 (部分)執行の前提条件として、「そもそも法 自体が機械にも読めるように変わるべきであ る」という議論 p.27
  28. 28. 28 現状では、2度も「翻訳」が挟まり非効率で不正確のおそれあり そもそも機械が運用しやすい条文になっている保証もない S.6, a.a.o, Kompetenzzentrum Öffentliche IT
  29. 29. 29 最初から 「(条文形式の)法文・ (フロー図形式の)決定規範・ ソフトウェアコード」の 3つをセットにして立法過程で 審議するべきという考え方 S.16, a.a.O, Kompetenzzentrum Öffentliche IT
  30. 30. Ⅳ 日独の意見書比較 • 共通:リスクシナリオ分析と順応型リスク管理 • 異なる出発点と到達点 – 日本:リスクシナリオの広範な概観から出発し「ガ イドライン(案)」へ – ドイツ:「権利」から出発し具体的立法方針提案へ • アルゴリズムについての日本の議論状況 p.30
  31. 31. 共通するアプローチ:リスクシナリオ分析と順応型リスク管理 • データ倫理委員会(DEK)意見書の中心をなし ている重大性ピラミッドKritikalitätspyramide (Criticality pyramid) p.31
  32. 32. 32
  33. 33. 重大性ピラミッドKritikalitätspyramide(Criticality pyramid) • 第一段階(レベル1):ゼロか、あるいはわずかな (ohneodergeringem/zeroornegligible)損害潜在性 (Schädigungspotenzial/potentialforharm)を伴う適用で は、それに対しては特別な措置なし。 <特別な規制の開始> • 第二段階(レベル2):なんらかの(gewissen/some)損 害潜在性を伴う適用には、形式的あるいは実体的要 件を備えた義務(例えば透明性義務、リスクアセスメ ントの公開など)か、あるいはモニタリング手続(例え ば、監督機関への開示義務、事故後のコントロール、 監査手続)を対応させる。 p.33
  34. 34. 重大性ピラミッドKritikalitätspyramide(Criticality pyramid) • 第三段階(レベル3):標準の(通常生じる) (regelmäßig/regular)あるいは明白な (deutlichem/significant)損害潜在性を伴う適用に は、さらに追加して、例えば事前の許可手続を 対応させる。 • 第四段階(レベル4):重大な (erheblichem/serious)存在潜在性を伴う適用に はさらに追加して、例えば監督機関による「常時 継続的(kontinuierlichen/“always on")」監視を可 能とするライブインターフェイスの導入。 p.34
  35. 35. 重大性ピラミッドKritikalitätspyramide(Criticality pyramid) これ以上には、<禁止> • 第五段階(レベル5):擁護できない (unvertretbarem/untenable)損害潜在性を持 つ適用には、アルゴリズムシステムの完全な あるいは部分的禁止を提唱 • もっとも、「どんな適用がどの段階か」につい ては大きくは踏み込まず p.35
  36. 36. 日本)AIネットワーク社会推進会議報告書の特徴 • AIの「ネットワーク化」に注目した広範なシナ リオやアクターやプロセスの細分化 – その後の学界における議論でもリスクシナリオ分 析による認識共有が進む p.36
  37. 37. The Utilization Scenes(in the Report 2018) • In the urban areas: – Movement, nursing care, sightseeing and traveling, education, human resource development • In the rural areas: – mobility, medical care, work, community • At home: – medicine, housework, safe, comfortable living environment • At enterprises: – human, goods, money, information p.37
  38. 38. p.38
  39. 39. p.39
  40. 40. p.40
  41. 41. p.41
  42. 42. 、「AI利活用原則(AI Utilization Principles)」(2019) が想定するアクターの分類 • 利用者 – AIサービスプロバイダ • AIネットワークサービスプロバイダ • オフラインAIサービスプロバイダ – 最終利用者 • ビジネス利用者 • 消費者的利用者 • 間接利用者 • データプロバイダー • 第三者 • 開発者 p.42
  43. 43. p.43
  44. 44. なぜ(法的拘束力のない、マニュアルのような意味での) 「ガイドライン」? • 開発ガイドライン案(2017)の策定過程におけ る「規制アレルギー」 – 産業界からの大きな反発 • 日本における「安全安心」のベースラインが 高すぎることによる裏返し? p.44
  45. 45. ドイツ)DEK(データ倫理委員会)意見書の特徴 • 権利主体としてのデータ主体(影響を受ける 個人)を中心に据えた議論 • データとアルゴリズムの観点を分ける理由 – 「アルゴリズムの観点では、必ずしもデータ主体 に関連したデータを訓練や運用時に用いていなく ても影響がありうる」 – その場合にはデータ主体の関与が期待できませ ん。そうすると、過ちへの監督や責任論、制裁に 関する客観的要件が重要となる(77頁) p.45
  46. 46. 46
  47. 47. • 図6:データの権利とそれに対応するデータの義務の形成 にかかわる一般的要因 – アクター間の権力分立 (Machtverteiling zwischen den Parteien / Balance of power between the parties) – データ権によって保護される個人の利益の重さ(Gewicht des für das Datenrecht sprechenden Individualinteresse / Weight of the being granted the data right) – データ生成への寄与(Beitrag zur Datengenerierung / Contribution to data generation) – 他のアクターの対立しうる利益の重さ(Gewicht der Indivisualinteressen andere Akteure / Weight of any conflicting interests on the part of others) – 一般公衆の利益(Interessen der Allegemeinheit / Interests of general public) p.47
  48. 48. EUアルゴリズムシステム規則 Verordunung für Algorithmische Systeme, EUVAS の提案 p.48
  49. 49. 日本でのアルゴリズムに関する議論 • Whatの議論の深化(山本龍彦) – 新しいプライバシー論 • データの再利用に対する不安としての「鈍痛」 • 集団から形成された偏見で個人を判断することを「個人の 尊厳」概念で食い止める – データの循環(データサイクル) – ビジネス面だけでなく、公的部門や政治過程におけ る利活用についても議論 • Howへの移行? – 研究者団体や企業の専門家グループからもアルゴリ ズム利用のガイドライン提案が p.49
  50. 50. 参考:データサイクル • Step1:大量のデータが収集され、プールされる 「ビッグデータの収集・集積」 • Step2:人間では気づかない相関関係や行動パ ターンの抽出による「解析」 • Step3:相関関係やパターンが特定のデータベー スに適用され自動的に予測される「プロファイリ ング」 • Step4:予測結果の特定の目的のために「利用」 • Step5:予測結果の妥当性検証のための事後的 な「追跡」 p.50
  51. 51. おわりに これからの展望 • 総論と各論の相互作用の今後 – DEKの議論は今後EU・ドイツ国内法(連邦法・ラント 法)にどのように反映されるか? – 各論分野にも適切に人間の尊厳についての考え方 を入れ込むことができるのか、各論分野での検討が 総論部分に還流できるのか • 「アルゴリズムの規制・ガバナンス(governance of algorithms)」 • 「アルゴリズムによる規制・ガバナンス (governance by algorithms)」と、その制御 p.51
  52. 52. Literturverzeichnis • Daten Ethik Kommission データ倫理委員会(DEK) – Gutachten (2019年10月) – https://datenethikkommission.de/gutachten/ • Kompetenzzentrum Öffentliche IT – “Recht Digital Maschinenverständlich und automatisierbar“, – https://www.oeffentliche- it.de/publikationen?doc=104099&title=Recht+Digital+ - +Maschinenverst%C3%A4ndlich+und+automatisierbar p.52
  53. 53. • Kürhling / Klar / Sackmann, Datenschutzrecht, 4. Auflage, Springer, 2018 • Wolfgang Hoffmann-Riem, Artificial Intelligence as a Challenge for Law and Regulation,in;Thomas Wischmeyer/Timo Rade macher (Ed.), Regulating Artificial Intelligence, Springer, 2019. p.53
  54. 54. 参考文献(本文中引用済みのものを含む) • 横田明美「ロボット・AIの行政規制」弥永真生・宍戸常寿(編)『ロボット・AI と法』第5章103-130頁 • 江間有紗『AI社会の歩き方 人工知能とどう付き合うか』科学同人(2019) • 平野晋『ロボット法(増補版)』弘文堂 (2019) • 江間有紗・城山英明「AIのガバナンス」稲葉振一郎・大屋雄裕・久木田水 生・成原慧・福田雅樹・渡辺智暁(編)『人工知能と人間・社会』勁草書房 (2020)297-344頁 • 成原慧「AIネットワーク社会におけるアーキテクチャと法のデザイン」稲葉 振一郎・大屋雄裕・久木田水生・成原慧・福田雅樹・渡辺智暁(編)『人工 知能と人間・社会』勁草書房(2020)92-119頁 • 河島茂生・久木田水生・新保史生・高橋恒一・平野晋「【座談会】AIネット ワーク化がもたらす影響とリスク―シナリオ分析の意義」福田雅樹・林秀 弥・成原慧(編著)『AIがつなげる社会』弘文堂(2017)101-135頁 • 山本龍彦「AIの憲法問題」山本龍彦(編)『AIと憲法』日本経済新聞社 (2018年) p.54
  55. 55. • 総務省情報通信研究所 AIネットワーク社会推進会 議 https://www.soumu.go.jp/main_sosiki/kenkyu/ai_net work/index.html – 各報告書の中に「AI開発ガイドライン案(Draft AI R&D GUIDELINES)」(2017),「AI利活用原則(AI Utilization Principles)」(2019) – The Conference toward AI Network Society, Draft AI R&D GUIDELINES for International Discussions 28 July 2017 – http://www.soumu.go.jp/main_content/000507517.pdf – The Conference toward AI Network Society, Draft AI Utilization Principles 17 July 2018 – http://www.soumu.go.jp/main_content/000581310.pdf p.55
  56. 56. • 統合イノベーション戦略推進会議 – 「人間中心のAI社会原則」 https://www8.cao.go.jp/cstp/aigensoku.pdf – Social Principles of Human-Centric AI – https://www.cas.go.jp/jp/seisaku/jinkouchinou/pdf/humancentricai.pdf – AI戦略 2019 ~人・産業・地域・政府全てにAI~」 – https://www.kantei.go.jp/jp/singi/tougou-innovation/pdf/aisenryaku2019.pdf – AI Strategy 2019 AI for Everyone: People, Industries, Regions and Governments – https://www.kantei.go.jp/jp/singi/ai_senryaku/pdf/aistratagy2019en.pdf • 経済産業省 – 「AI・データの利用に関する契約ガイドライン」 – https://www.meti.go.jp/press/2019/12/20191209001/20191209001.html p.56
  57. 57. • ご清聴ありがとうございました! – Twitter: @akmykt (日本語) • Besten Dank für Ihre Aufmerksamkeit! – Twitter:@akyokota (Deutsch und Englisch) https://www.slideshare.net/akemiyokota83 p.57

Hinweis der Redaktion

  • General: 2 Drafts are oriented to the general Risks and Impact
    Sometimes, somewhere, we have to introduce GL into the particular sections in the society.
  • Genaral: 2 Drafts are oriented to the general Risks and Impact
    Sometimes, somewhere, we have to introduce GL into the particular sections in the society.

×