シリコンバレーの「迅速に動き、物事を壊せ」という哲学は、AIによって持続不可能となっている

The Conversation
投稿日
2023年11月22日 11:50
silicon valley

シリコンバレーの非公式なモットーは長らく「迅速に動き、物事を壊せ」とされてきた。これは、最先端の技術を創造し、競争相手よりも先んじるためには、過程で物事が壊れることを受け入れる必要があるという仮定に基づいている。

しかし、このアプローチには経済的な面だけでなく、他の意味での影響もある。人々に危険を及ぼしたり、不道徳である可能性がある。AIチャットボットChatGPTのリリースから1周年を迎えるにあたり、大手テクノロジー企業がゆっくりと動き、物事を壊さないように注意すべきかどうかを考える価値がある。

ChatGPTの印象的な能力は感動を呼んだ。しかし、一部の評論家は、学生が課題で不正行為を行う可能性などの問題を指摘するのに早かった。さらに広くは、このチャットボットが、巨大な利益と同等のリスクを持つ変革的な技術であるAIをどのように制御するかという議論を激化させた。

シリコンバレーの他の技術に関する記録も見てみよう。ソーシャルメディアは私たちを一つにするはずだった。しかし、それは民主主義を脅かし、トロールの軍団を生み出した。金融の現状を打破すると宣伝された暗号通貨は、環境破壊を引き起こし、詐欺に遭いやすくなった。

パーソナルコンピュータの登場は、私たちの仕事を楽にするはずだった。実際にはそうなったが、その代償は大量の失業であり、それから10年以上を経て労働市場が回復することになった。

技術そのものが悪いわけではない。しかし、それらが開発されるイデオロギーは問題になることがある。そして、技術が私たちの日常生活にますます浸透するにつれて、「壊れる物」が最終的に人間の命になる可能性もある。

アプローチの変更

「迅速に動き、物事を壊せ」という方針は、経済的にも誤りである可能性がある。2000年代初頭のドットコムバブルのように、投資家が価値ではなく新奇性に急いで投資する結果になるかもしれない。この考えは、物事が間違ってもすぐに修正できると仮定しており、そのために損害は限定的になるだろうと考えている。しかし、シリコンバレーの歴史を振り返ると、これが複数の点で問題であることが示されている。

問題があると認識することと、その原因を見つけることは別のことである。一度技術が導入されると、それが使用される環境は複雑で、何が正確に間違っているのかを理解するのに数年かかることもある。

例えば、アメリカの司法制度は、保釈決定の支援として10年以上前からAIを使用している。これらは、現金保証金に対して、どの被告人が裁判前に釈放されるべきかを決定する。

AIは、被告人が逃亡するリスクを減らす手段としてだけでなく、白人の判事が白人の被告人を釈放する可能性が高いという人種的偏見に対処するためにも導入された。しかし、結果としてアルゴリズムは逆の結果を生み出し、黒人の被告人が釈放されるケースが少なくなった。

エンジニアたちは、偏見を減らすことを望み、AIアルゴリズムの新しいバージョンを導入し続けた。しかし、何もうまくいかなかった。そして2019年―システムが最初に導入されてから17年後―研究者が、問題はAI自体ではなく、裁判官がそれを使用している方法にあることを発見した。

彼らは、自身の固定観念に合わない判断を覆す可能性が高かった。問題は裁判官とAIの相互作用にあった。それぞれ単独ではある程度適切な判断を下すことができたが、共に使われると災害になった。

遅延した結果

シリコンバレーのアプローチがリスキーであるもう一つの理由は、新しい技術の影響が現れるまでに長い時間がかかることである。これは、害が及ぼされたことを私たちが認識する頃にはすでに手遅れであることを意味している。

例えば、オランダの福祉システムは、詐欺を検出するためにAIアルゴリズムに大きく依存していた。これは多くの点で問題があり、特に民族的出自や国籍を重要なリスクファクターとして使用していたことが問題視された。

問題が明らかになるまでに何年もかかった。その時点で、一部の人々はAIによる決定の影響を深刻に受けており、単純なフォームのミスに対して何十万ユーロもの返済を求められたため、自ら命を絶つ者もいた。

混乱の後始末 「迅速に動き、物事を壊す」ということは、どこかで他の誰かがその混乱を片付けることを意味する。技術を生み出す者にとっては、その結果に対する責任を放棄する方法であり、企業がそれに気づいているかどうかにかかわらずである。ソーシャルメディアはこれの明白な例である。

ソーシャルメディアの「提案」アルゴリズム―AIによって動かされている―は、誤情報やヘイトスピーチを促進するなど、さまざまな問題を引き起こしている。それらはより多くのエンゲージメントを生み出すからである。また、嫌がらせを容易にし、メンタルヘルスに悪影響を及ぼす。それでもなお、ソーシャルメディアプラットフォームは、彼らが宣伝し、利益を得るコンテンツに対する責任を拒否し、これらの問題を抑制するのに苦労している。

ChatGPTの1周年は、過去の技術進歩から学ぶべき教訓を振り返る機会を提供してくれる。それは、特に人間の命が関わる場合、間違いは修正するよりも避ける方が簡単であることを私たちに気づかせてくれる。


本記事は、Constance De Saint Laurent氏とVlad Glăveanu氏によって執筆され、The Conversationに掲載された記事「AI makes Silicon Valley’s philosophy of ‘move fast and break things’ untenable」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。



この記事が面白かったら是非シェアをお願いします!


  • elon musk
    次の記事

    OpenAIのSam Altman氏の「欺瞞と操作」について元従業員が告発し、なぜかElon Musk氏が調査を要求

    2023年11月22日 12:15
  • 前の記事

    NVIDIA、2024年第3四半期は純利益が前年同期比10倍以上の大幅な伸びを記録

    2023年11月22日 11:34
    nvidia hq

スポンサーリンク


この記事を書いた人
The Conversation

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事