国際開発や途上国ビジネスにもAI(人工知能)や機械学習の波が少しずつ押し寄せて来ていますね。ちょうどICT Worksに国際開発とAIの記事があったので紹介します。記事のタイトルは「Help! My boss wants an AI project. What should I do?」です(笑)。
「AIで何かやれ!」と言われると困ってしまうと思いますが、途上国でよく使われるパターンとしては、ChatBot(声をかけたり、質問を入力すると、AIが回答してくれるやつ)や、衛星画像のパターン認識による農作物の発育情報をモニタリング、などがあると思います。そういったAIの活用事例に関して、USAID, Google, IBMなどから、いくつかレポートが作成されています。
- Artificial Intelligence in Global Health: Defining a Collective Path Forward (USAID)
- Reflecting the Past, Shaping the Future (USAID)
- Responsible AI Practices (Google)
- Trusted Artificial Intelligence (IBM)
これらはAIの使い方に関するレポートである一方で、AIプロジェクトをどのように評価するかについても議論がなされています。一番重要な倫理的キーワードは「do not harm」です。つまり、AIを入れることで人々に害を与えないということですね。
TechnologySalonでは、世界銀行と共催で以下のようなイベントも行われ、AIの倫理的な利用やバイアスなどが議論されています。
How to Evaluate Artificial Intelligence Use Cases for Development Programs?
そしてこのSalonでは、公開型でAIプロジェクトの評価ドキュメントへのコメントを募集しています。ご興味ある方はご覧ください。
これらの議論の中で大事なことは、あくまでもAIの中心にいるのは人間であるという点です。Salonで議論された重要な点として、以下のようなものがありました。
- AIについての説明責任は我々にある
開発実務家や技術専門家として、AIが何をして、何の機能を持っているかを、きちんと説明できるようにしておくべきである。 - 我々が目指すのは人間の補完であり、人間の代替ではない
我々はAIが人間の意思決定や行動範囲、需要をどのように補完できるかを議論するべきであるり、AIが人間の代替となることを目指すべきではない。 - データ・デバイドに伴うは多くの不安が存在する
デジタル・デバイドのように、多くのデータ・デバイドが存在する。その最たるものとしては、我々が訓練し、使い、AIの妥当性を検証するための組織・人材が足りていない。そのため、意図的にバイアスをかけられるデータの使い方などコントロールされてしまう懸念がある。
このように、AIに関する期待は日々上昇傾向にあるのですが、AIの良い使い方について、きちんと議論を続けていくことはとても大事ですよね。
最後までお読みいただき、ありがとうございました。狩野(Kanot)でした。
コメント
What should we do? ということは、考え直す、という選択肢はないんですよね(笑)。
https://www.itmedia.co.jp/news/series/11565/
What should I do?です。勝手に他人を巻き込まないでください(笑)
あはは、そうでしたね。
AIは面白そうなのに、なにか違和感を感じている今日この頃です。
[…] 実施にも目を配って、過去のICT4D分野の教訓を活かしていくことが必要だと思います。前回のKanotの投稿にも共通していますが、「ICTはあくまでツール」なので、期待し過ぎちゃダメ。「こ […]