(この記事は2018年117日にMicrosoft Partner Network blogに掲載された記事Our shared responsibility for AIの翻訳です。最新情報についてはリンク元のページをご参照ください。)

人工知能の利用が拡大するにつれ、人とテクノロジの関係や、新しい機能が個人や社会にもたらす影響についてなど、重要な課題が持ち上がっています。マイクロソフトは、インターネットが普及し始めたころからプライバシーの問題や詐欺対策に取り組んできましたが、AI に関しても同様の課題が浮上しています。重要なのは、AI によって何ができるかではなく、AI によって何をすべきかです。

AI は人の能力を拡大、強化するものであり、管理するには人を中心としたアプローチが必要です。しかしそのようなアプローチを実現するには、政府、経済界、社会の研究者、政策立案者、指導者たちが一致団結して、AI に対する共通の倫理的枠組みを確立しなければなりません。

パートナー様の役割

マイクロソフト パートナー様も、これからの AI 利用の指針となる倫理規範を策定するうえで重要な役割を担っています。今後パートナー様のスキルが向上すると共にAI の構成要素が進化し、カスタム AI ソリューションの開発が一般的になることは疑いようもありません。しかし、責任を共有して課題に対処することが先決であり、的確な疑問を提起するうえでパートナー様はこれ以上ない存在なのです。

そこで皆様には、無料の電子ブック「Future Computed: AI とその社会における役割」をお読みいただくことをお勧めします。マイクロソフトのプレジデント兼最高法務責任者の Brad Smith と、AI and Research Group 担当エグゼクティブ バイス プレジデントの Harry Shum が執筆した本書では、社会における AI の役割について改めて考えています。

Brad Smith が述べているように、「チャンスには必ず課題が伴います。私たちがテクノロジそのものだけではなく、倫理基準の確立、法規の改定、新しいスキルの教育、労働市場の改革などについても考えなければいけないのです。新たなテクノロジを最大限に活用するためには、これらの要素すべてが必要です」。

Brad Smith と Harry Shum は、AI が尊重すべき社会的価値についてまとめ、開発の指針となる次の 6 つの原則を提唱しています。

  1. 公平性 AI システムは、あらゆる人を公平でバランスの取れた形で扱うべきであり、同様の状況にある人々を異なる方法で扱うべきではありません。開発者は AI システムに取り込まれる可能性のある偏見や、AI の推奨事項に影響を及ぼすおそれのあるバイアスを理解する必要があります。AI システムのトレーニングに使用される社会的データには人種差別や性差別が潜んでいることもあるため、設計担当者は AI システムに現実世界の多様性を反映し、関連する分野の専門性を取り入れることが重要です。
  2. 信頼性 AI システムが明確に定められた特性で動作し予期せぬ事態にも安全に対応することを、ユーザーが信頼できることが重要です。そのためには、設計プロセスでの各分野の専門家の参加、データとモデルの体系的な評価、運用についての文書化と監査のためのプロセス、AI システムが人間の支援を求めるべきタイミングや方法の取り決め、堅牢なフィードバック メカニズムが必要となります。
  3. プライバシーとセキュリティ – 他のデジタル テクノロジと同様に、AI システムはデータのプライバシーとセキュリティを保護する必要があります。そうでなければ、ユーザーは AI のトレーニングに欠かせないデータを提供しようとは思いません。AI システムの効果的な運用に必要なデータへのアクセスを促進すると同時に、プライバシーを保護するテクノロジや政策も求められます。
  4. 包括性 AI は、情報、教育、雇用、行政サービス、社会的・経済的機会へのアクセス向上のための強力なツールになります。しかし、あらゆる人が恩恵を受けられるようにするには、AI テクノロジがユーザーの関連情報、ニーズ、期待を理解する必要があり、特定の人々を意図せず排除することのないよう潜在的な障壁を取り除かなくてはなりません。
  5. 透明性 AI システムによって人々の生活に影響を与えるような意思決定を支援する際には、そうした決定が下された経緯をきちんと理解できることがきわめて重要です。AI システムのしくみとデータの取り扱いについて、状況に沿った情報があれば、潜在的な偏見、エラー、意図しない結果を把握しやすくなります。
  6. 説明責任 AI システムを設計、展開する担当者は、システムの動作に対して説明責任を負う必要があます。説明責任の基準が遵守されているか、効率的に機能しているかを定期的にチェックするべきです。

AI のテクノロジやソリューションの設計担当者、開発者、利用者の全員が、それぞれの組織の中でマイクロソフトのお客様と共に倫理的枠組みを熟考、確立する必要があります。

そのために、マイクロソフトではエンジニアリングとリサーチにおける AI と倫理 (AETHER) 委員会 (英語) を設置し、社内で上記の考慮事項に取り組んでいます。この AETHER 委員会は、マイクロソフトのエンジニアリング、リサーチ、コンサルティング、法務部門のシニア リーダーで構成され、社内ポリシーや特定の問題への責任ある対処方法の積極的な策定に注力しています。

マイクロソフトは、AI 研究団体「Partnership on AI (英語)」の設立メンバーでもあります。この団体は、経済界のリーダー、政策決定者、研究者、学者、NGO の代表者で構成され、倫理面での AI について業界での議論を促進しています。

 

 

人間の仕事は奪われるか

AI の政策立案者は、データの収集と利用についてまず注目し、プライバシーや機密情報の保護を図ろうとするでしょう。しかしマイクロソフトは、テクノロジの責任ある効果的な利用についても関心を寄せています。コンピューティングが飛躍的に進歩したときのように、自動化と AI によって人の仕事が奪われることが危惧されています。確かに AI は労働者に影響を及ぼしますが、一方で新たな雇用機会も生まれ、まったく新しい職業、職種が登場することでしょう。

淘汰される仕事、その結果として新たに生まれる仕事を予測することは困難ですが、将来に備え、重要な仕事をこなせる十分な人材を確保するために、新しいスキルやトレーニングが必要となってきます。変革により、既に多くの業界で不可欠な人材が不足しています。高いスキルを備えた人材の不足を解消するには、従業員が継続的に学習して新たなスキルを習得する環境を確保しなければなりません。

そのような将来に先駆けて、新しいテクノロジと同様、AI は私たちの日常業務を改善する大きな可能性を示しています。チャンスには課題も伴いますが、協力して臨むことで、だれからも信頼される AI の実現に向けて共通の倫理的枠組みを構築できます。

AI をビジネスに取り入れる最善の方法については、こちらのページをご覧ください。