JCA-NETが加盟しているAPCも呼びかけ団体にはいっているPublic Voiceが2018年に人工知能のための普遍的なガイドラインを提案しています。日本でも急速にAIの利用が進むなかで、その問題点についいての議論が置き去りにされています。JCA-NETはこのたび、このガイドラインに賛同しました。
以下は、このガイドラインの日本語訳です。

https://thepublicvoice.org/ai-universal-guidelines/
人工知能のユニバーサルガイドライン
2018年10月23日
ベルギー・ブリュッセル

人工知能の新たな発展は、科学や産業から行政や金融に至るまで、世界を大きく変えつつあります。AIによる意思決定の台頭は、公平性、説明責任、透明性といった基本的な権利にも関わります。現代のデータ分析は、雇用、住宅、信用、商取引、刑事判決など、人々の実生活に影響を与える重要な結果を生み出します。これらの技術の多くは完全に不透明であり、決定が正確であったか、公正であったか、あるいは自分に関するものであったかどうかさえ、個人にはわからないままです。

私たちは、AIの設計と使用に関する情報を提供し、改善するために、このユニバーサル・ガイドラインを提案します。本ガイドラインは、AIの利点を最大限に生かし、リスクを最小限に抑え、人権の保護を確保することを目的としています。これらのガイドラインは、倫理基準に組み込まれ、国内法や国際協定に採用され、システムの設計に組み込まれるべきである。 私たちは、AIシステムの主たる責任は、これらのシステムに資金を提供し、開発し、展開する機関にあるべきだと明確に述べます。

1 透明性に対する権利。すべての人は、自分に関係するAIの決定の根拠を知る権利があります。これには、結果を生み出した要因、論理、および技術へのアクセスが含まれる。
2 人間による決定の権利。すべての個人は、人による最終決定を受ける権利を有する。
3 識別の義務。AIシステムに責任を持つ機関は、一般に公表されなければならない。
4 公平性の義務。機関は、AIシステムが不当な偏見を反映したり、許されない差別的判断をしないようにしなければならない。
5 評価と説明責任の義務。AIシステムは、その目的・目標、メリット、リスクを十分に評価した上で導入すべきである。機関は、AIシステムによってなされた決定に責任を持たなければならない。
6 正確性、信頼性、および妥当性の義務。機関は、意思決定の正確性、信頼性、および妥当性を確保しなければならない。
7 データ品質の義務。機関は、データの出所を確立し、アルゴリズムに入力されるデータの品質と関連性を保証しなければならない。
8 公共安全の義務。教育機関は、物理的な装置を指示または制御するAIシステムの導入によって生じる公共安全のリスクを評価し、安全管理を実施しなければならない。
9 サイバーセキュリティの義務。教育機関は、サイバーセキュリティの脅威に対するAIシステムの安全性を確保しなければならない。
10 秘密のプロファイリングの禁止。いかなる機関も、秘密のプロファイリングシステムを構築または維持してはならない。
11 一元的なスコアリングの禁止。いかなる国家政府も、その国民または居住者に関する汎用的なスコアを確立または維持してはならない。
12 終了の義務。AIシステムを構築した機関は、人間によるシステムの制御が不可能になった場合、そのシステムを終了させる積極的な義務を負う。