AIの規制と倫理:より人間中心を目標としたAIを構築する方法-その2

AIの規制

Birchall氏は、AIの規制方法について4つの提案をしました。

  • エンジニアリング標準をAIに適用する
  • リスクについてAIエンジニアを訓練する
  • 組織にその利益と同じようにリスクについても考慮するよう呼びかけ、訓練させる。
  • 既存の規制機関にもAIに対する権限を与える。

ストラテジックコンサルタントのBioss InternationalのCEO、Robbie Stampは、AIはそれ自身では倫理観を持たないことをAPPGに喚起しました。AIに倫理観を与えるのは、すべて人間の説明責任によるものだと彼は言いました。

「ガバナンスは、厳しくて速いルールではなく、AIに求めている作業と関連して重要な境界を理解することに基づいているべきだ」

とスタンプ氏は語りました。
彼は人間と機械の判断と意思決定の間の進化する関係を追跡する倫理的ガバナンスの枠組みであるBioss AI Protocolを掲げました。

自動化がデータの品質を傷つける

UCLのデータサイエンスセンター所長、Sofia Olhede氏は、自動化されたデータ収集はデータ品質と妥当性を損ない、そのデータによってアルゴリズム的な意思決定に繋がるのだと強調しました。

ほとんどのアルゴリズムは平均的な結果を出すために開発された、と彼女は言いました。これらは、顧客への商品紹介などのようないくつかの場面では十分かもしれませんが、その結果が人生の変化やビジネスにとって重要な場合には不十分であるかもしれません。

「アルゴリズムのバイアスはAIの信頼性を脅かし、不平等につながります」

Olhede氏はこう述べました。
また、Olhede氏は、アルゴリズムは公開されているデータから学習するため、そのデータに人間や過去の偏見を反映している可能性もあると言います。また、データが偏って収集されると、その偏見は社会規範を反映しないものとなる可能性があります。つまり、データのキュレーションに関するスタンダードを確立することが重要です。

例えば、技術を積極的に採用する人は多くのデータを生産し、これらのデータは、高齢者やデジタルシステムの使用を最小限に抑える人にとっては、悪影響を与える可能性があります。

Olhede氏は倫理に関して、標準を掲げる必要性を表明しました。

「多くの企業が社内倫理委員会を設置していますが、その目的について共通の原則が必要です。」

と彼女は語りました。

業績とリスク

マイクロソフトの政府官僚であるTom Morrison-Bell氏は、AI技術の成果と潜在性を強調しました。たとえば、MicrosoftのSeeing AIアプリケーションは、視覚障害のある人が相手の表現を読んだりすることでコミュニケーションに役立ちます。

しかし、彼は倫理的リスクを軽く見ているわけではありません。

「AIの利益と機会が何であれ、人がそれを信用しなければ、それは実現しません。」

この議論は、アルゴリズムによる透明性がより大きな安心感を提供し、公衆の信頼を得ることができるかどうかに焦点が移りました。

「ほとんどの企業は、より透明性を高めるように取り組んでいます。彼らはAIのブラックボックスを望んでいない」

とBirchall氏は語理ました。

「あるアルゴリズムが誰かについて決定を下す場合、彼らは説明の権利を有します。しかし、説明によって意味するものは何でしょうか?」

Olhede氏は、すべてのアルゴリズムが簡単に説明または理解できるとは限らないと付け加えました。

ビジネスのインターネット(Internet of Business)の考え

根本的な問題は、信頼できるAIを確立するためにどれだけの透明性と制御が必要なのかということです。

Groves氏が観察したように、技術がどのように機能しているか正確に知らなくても、技術を信頼することは可能です。結果として、ほとんどの人は、ブラックボックス内のテクノロジそのものではなく、AIとアルゴリズムの意味を理解する必要があります。彼らは、潜在的なリスクを認識し、それらが意味するものを理解する必要があります。

昨年のUK Robotics WeekでのUK-RASプレゼンテーションによれば、この分野の科学者や開発者でさえ、ブラックボックス・ニューラル・ネットワークがどのように意思決定に到達したかを理解していないと、伝えました。これは特に重要です。

「フラットワールドのルール」の著者、ギリアン・ハドフィールド教授は人間が法律を発明した理由と、複雑なグローバル経済のためにそれを再現する方法は、間違ったことをしているだけかもしれないと考えています。

「行動のパターンを明らかにするのではなく、安全で価値あるAIを構築し、それに社会規範をどのように反映させるのか」

と彼女は尋ねます。 AIが何をするべきかを議論するのではなく、社会科学者が私たちのルールを理解し、参加できるAIを構築する方法を検討する必要があります。

  • 議論は、2018年3月12日に議会の民間委員会室で行われました。
  • 2018年3月29日、英国政府は、倫理コンピューティングとAIに関する全国的な議論に焦点を当てることを目的としたAda Lovelace Instituteの設立を発表しました。
  • Joanna Goodmanはフリー・ジャーナリストで、The Guardianの新聞やITコラムニストであり、Law Society Gazetteなど、ビジネスとテクノロジーについて書いています。彼女の著書である「人工知能が法的サービスをどのように変えているのか」は、2016年に出版されました。

この記事の前半はこちら:https://wp.me/p9kFXP-24q

原文はこちら: AI regulation & ethics: How to build more human-focused AI

産業制御および工場自動化市場は、2017年から2023年の間に7.4%のCAGRで成長する見込み 世界のIoTに関するレポート公開中