先日、G7デジタル相会合において、「責任あるAI」の構築を奨励する採択がなされたが、これはここ数ヶ月、ChatGPTの登場により大きく注目を集めている、生成AIによるプライバシーや倫理的な問題をどのように扱うかについて、多くの懸念も出てきている事を受けてのことだ。
これについて、OpenAIと組み、生成AI技術を全社的に採用するべく相次いで製品をリリースしているMicrosoftは、まず批判の矢面に立たされる存在であろう。
そんな同社は3月、1万人の従業員を解雇する計画の一環として、「責任あるAI」の構築に携わっていた倫理・社会チームを解散している。本日、MicrosoftのChief Responsible AI OfficerであるNatasha Crampton氏は、ブログ記事で、同社の責任あるAI計画に関する全体的な検討の一環として、なぜその決定がなされたのかについて書いている。
Crampton氏は、倫理・社会チームは、「我々が今日の地位を得ることを可能にするために重要だった」と述べている。しかし、彼女は、Microsoftが同社の責任あるAI部門について、いくつかの組織変更を行うことを決定したと述べた:
1つ目は、GPT-4のような最先端技術を含むAzure OpenAI Serviceを担当するチームへの重要な新規投資、2つ目は、ユーザーリサーチとデザインチームの一部に、元倫理・社会チームのメンバーを移動させて専門知識を注入することでした。これらの変更に伴い、私たちは倫理・社会チームの残りを縮小するという難しい決断を下し、7名が影響を受けました。私たちの同僚に影響を与える決断は簡単ではありませんが、私たちの責任あるAIの実践を全社的に採用するために、最も効果的な組織構造に関する経験に基づいたものでした。
Crampton氏によると、現在Microsoftでは350人が何らかの形で責任あるAIに取り組んでいるという。そのうち129人がそのテーマだけにフルタイムで取り組んでおり、残りの社員は責任あるAIを職務の主要な部分としているとのことだ。さらに彼女は、Microsoftは新しい従業員を雇い、現在の従業員の一部を責任あるAIの職務にフルタイムで従事させる計画を持っており、これらの取り組みについては “今後数カ月のうちに”さらに明らかにされるだろうと述べた。
ブログ投稿では、これらのトピックについて定期的に開催されているMicrosoftの「Responsible AI Council」についても触れている。この評議会は、同社の社長Brad Smith氏とCTOのKevin Scott氏が議長を務めている。また、Microsoftが同社のすべての部門に責任あるAI倫理を入れるためにどのように取り組んでいるかについても触れられている。Crampton氏はこう述べている:
また、より定期的で直接的な関わりを持つために、さまざまなスキルと役割を持つ責任あるAI「チャンピオン」の大規模なネットワークを継続的に訓練し、育成しています。
これらの計画はすべて、MicrosoftがAIの台頭に関する多くの人々の懸念を真剣に受け止めているように聞こえるが、同社の行動が今後数ヶ月、数年の間にその言葉を実現するものなのかどうかを確認する必要があるだろう。
Source
コメントを残す