シリコンバレーの「迅速に動き、物事を壊せ」という哲学は、AIによって持続不可能となっている

スポンサー広告

シリコンバレーの非公式なモットーは長らく「迅速に動き、物事を壊せ」とされてきた。これは、最先端の技術を創造し、競争相手よりも先んじるためには、過程で物事が壊れることを受け入れる必要があるという仮定に基づいている。

しかし、このアプローチには経済的な面だけでなく、他の意味での影響もある。人々に危険を及ぼしたり、不道徳である可能性がある。AIチャットボットChatGPTのリリースから1周年を迎えるにあたり、大手テクノロジー企業がゆっくりと動き、物事を壊さないように注意すべきかどうかを考える価値がある。

ChatGPTの印象的な能力は感動を呼んだ。しかし、一部の評論家は、学生が課題で不正行為を行う可能性などの問題を指摘するのに早かった。さらに広くは、このチャットボットが、巨大な利益と同等のリスクを持つ変革的な技術であるAIをどのように制御するかという議論を激化させた。

シリコンバレーの他の技術に関する記録も見てみよう。ソーシャルメディアは私たちを一つにするはずだった。しかし、それは民主主義を脅かし、トロールの軍団を生み出した。金融の現状を打破すると宣伝された暗号通貨は、環境破壊を引き起こし、詐欺に遭いやすくなった。

パーソナルコンピュータの登場は、私たちの仕事を楽にするはずだった。実際にはそうなったが、その代償は大量の失業であり、それから10年以上を経て労働市場が回復することになった。

技術そのものが悪いわけではない。しかし、それらが開発されるイデオロギーは問題になることがある。そして、技術が私たちの日常生活にますます浸透するにつれて、「壊れる物」が最終的に人間の命になる可能性もある。

アプローチの変更

「迅速に動き、物事を壊せ」という方針は、経済的にも誤りである可能性がある。2000年代初頭のドットコムバブルのように、投資家が価値ではなく新奇性に急いで投資する結果になるかもしれない。この考えは、物事が間違ってもすぐに修正できると仮定しており、そのために損害は限定的になるだろうと考えている。しかし、シリコンバレーの歴史を振り返ると、これが複数の点で問題であることが示されている。

問題があると認識することと、その原因を見つけることは別のことである。一度技術が導入されると、それが使用される環境は複雑で、何が正確に間違っているのかを理解するのに数年かかることもある。

例えば、アメリカの司法制度は、保釈決定の支援として10年以上前からAIを使用している。これらは、現金保証金に対して、どの被告人が裁判前に釈放されるべきかを決定する。

AIは、被告人が逃亡するリスクを減らす手段としてだけでなく、白人の判事が白人の被告人を釈放する可能性が高いという人種的偏見に対処するためにも導入された。しかし、結果としてアルゴリズムは逆の結果を生み出し、黒人の被告人が釈放されるケースが少なくなった。

エンジニアたちは、偏見を減らすことを望み、AIアルゴリズムの新しいバージョンを導入し続けた。しかし、何もうまくいかなかった。そして2019年―システムが最初に導入されてから17年後―研究者が、問題はAI自体ではなく、裁判官がそれを使用している方法にあることを発見した。

彼らは、自身の固定観念に合わない判断を覆す可能性が高かった。問題は裁判官とAIの相互作用にあった。それぞれ単独ではある程度適切な判断を下すことができたが、共に使われると災害になった。

遅延した結果

シリコンバレーのアプローチがリスキーであるもう一つの理由は、新しい技術の影響が現れるまでに長い時間がかかることである。これは、害が及ぼされたことを私たちが認識する頃にはすでに手遅れであることを意味している。

例えば、オランダの福祉システムは、詐欺を検出するためにAIアルゴリズムに大きく依存していた。これは多くの点で問題があり、特に民族的出自や国籍を重要なリスクファクターとして使用していたことが問題視された。

問題が明らかになるまでに何年もかかった。その時点で、一部の人々はAIによる決定の影響を深刻に受けており、単純なフォームのミスに対して何十万ユーロもの返済を求められたため、自ら命を絶つ者もいた。

混乱の後始末 「迅速に動き、物事を壊す」ということは、どこかで他の誰かがその混乱を片付けることを意味する。技術を生み出す者にとっては、その結果に対する責任を放棄する方法であり、企業がそれに気づいているかどうかにかかわらずである。ソーシャルメディアはこれの明白な例である。

ソーシャルメディアの「提案」アルゴリズム―AIによって動かされている―は、誤情報やヘイトスピーチを促進するなど、さまざまな問題を引き起こしている。それらはより多くのエンゲージメントを生み出すからである。また、嫌がらせを容易にし、メンタルヘルスに悪影響を及ぼす。それでもなお、ソーシャルメディアプラットフォームは、彼らが宣伝し、利益を得るコンテンツに対する責任を拒否し、これらの問題を抑制するのに苦労している。

ChatGPTの1周年は、過去の技術進歩から学ぶべき教訓を振り返る機会を提供してくれる。それは、特に人間の命が関わる場合、間違いは修正するよりも避ける方が簡単であることを私たちに気づかせてくれる。


本記事は、Constance De Saint Laurent氏とVlad Glăveanu氏によって執筆され、The Conversationに掲載された記事「AI makes Silicon Valley’s philosophy of ‘move fast and break things’ untenable」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

面白かったらぜひシェアを!
The Conversation
The Conversation

The Conversationは、ニュース記事や調査報告書をオンラインで公開する非営利メディアのネットワークで、専門家の意見や分析が添えられている。記事はクリエイティブ・コモンズ・ライセンスのもと、学者や研究者によって書かれ、改変せずに再利用できるようになっている。画像の著作権条件は通常、画像のキャプションと帰属に記載されている。そのモデルは説明的ジャーナリズムと評されている。「例外的状況」を除き、「大学や公認研究機関など公認機関に雇われた、あるいは公認機関と正式につながっている学者」による記事のみを掲載する。

記事本文: 271

返信を残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です