OpenAI社のCEOであるSam Altman氏は、同社の人工知能技術であるChatGPTが社会を再構築する上で深刻なリスクをはらんでいると警鐘を鳴らしている。
ABC NewsがAltman氏に実施したインタビューの中で、彼は規制当局と社会がこの技術に関与する必要があると強調した。
「特に、これらのモデルが大規模な偽情報に使われることを心配しています。今、AIはソースコードを書くのが上手になっているので、(AIが)攻撃的なサイバー攻撃に使われる可能性がある」と、Altman氏は述べている。
OpenAIは、言語AIモデルの最新版であるGPT-4をリリースし、史上最も急速にユーザー数を伸ばしたコンシューマー向けアプリケーション「ChatGPT」を駆動させている。
リスクはあるものの、AIエンジニアの中にはChatGPTが 「人類が開発した最も偉大な技術」かもしれないと述べる者もいる程だ。
「ここは慎重にならざるを得ません」と、Altman氏は警告を発した。「私たちがこれに少し怯えていることを、人々は喜ぶべきだと思います」。
Altman氏は、GPT-4に触れながら、最新版は「完璧ではない」としながらも、米国の司法試験で90%を達成し、高校生向けのSAT数学テストでもほぼ満点を獲得していると述べた。
さらに、大半のプログラミング言語のコンピューターコードを作成することもできると付け加えた。
AI技術が人に取って代わることへの懸念も広がっている。日本では想像も出来ない話だが、ChatGPTは既にアメリカの企業の約半数に導入されているとのことだ。
Resumebuilder.comが1,000人のビジネスリーダーを対象に行った調査によると、これらの企業の約半数が、ChatGPTによってすでに多くの人材が入れ替わっていることを明らかにした。
しかし、Altman氏は、AIが人間のガイダンスや入力があって初めて機能することを強調する。彼は、技術そのものよりも、その技術を担当する人たちのことに関心があるようだ。
「誰かが入力してくれるのを待つ、これは、非常に人間のコントロールが効くツールです」と、Altman氏は指摘する。
だが、中には既に課されている安全上の制限を無視する人たちも出てくるだろう。「社会は、それにどう対応するか、どう規制するか、どう対処するか、限られた時間しかないと思う」と付け加えた。
TeslaのCEOであるElon Musk氏は、AIは核兵器よりも危険であると、たびたび警告してきた。Musk氏は、OpenAIがまだ非営利団体だったころの初期投資家の一人でもある。
「AIに比べれば、医療機器を承認する大きな規制装置があるため、Neuralinkの進歩は遅く、評価しやすいだろう」と、Musk氏は12月にツイートしている。
「AIには規制的な監視がなく、これは大きな問題だ。私は10年以上前から、AIの安全規制を訴えています!」
Source
コメントを残す