「人工知能のゴッドファーザー」として知られるジェフリー・ヒントンは、テクノロジーがもたらす危険性について身も凍るような警告を Google に残しました。
Geoffrey Hinton は、Google で 10 年以上にわたり、ChatGPT などの今日の AI システムへの道を開いたテクノロジーの開発に携わってきました。 しかし、人工知能の危険性について警鐘を鳴らすために、彼は会社を辞めることにしました。
教えて ニューヨークタイムズ 彼は自分がこの分野に貢献したことを後悔しています。 彼は、「私はいつもの言い訳で自分を慰めます。もし私がやらなかったら、他の誰かがやったでしょう.
彼は、偽の写真、ビデオ、テキストの拡散により、短期的にはテクノロジーによって「何が本物か分からなくなる」ことを恐れていると語った.
しかし将来的には、AI システムが最終的に危険で予測不可能な行動を学習する可能性があり、そのようなシステムは最終的にキラー ロボットの動力源となるでしょう。 彼はまた、テクノロジーが労働市場に有害な混乱を引き起こす可能性があると警告した.
「これらのものが実際に人間よりも賢くなるという考え – それを信じている人はほとんどいませんでした」と彼は言いました。 しかし、ほとんどの人は、それは行き過ぎだと思っていました。 そして、私はそれが達成できないと思いました。 30~50年か、それ以上かと思っていました。 明らかに、私はもうそうは思いません。」
彼は、Google や Microsoft のような企業が危険な競争に巻き込まれないようにするための規制が必要であると警告しました。 彼は、これらの企業がすでに秘密裏に危険なシステムに取り組んでいる可能性があると指摘しました。
「彼らがそれを制御できるかどうかを理解するまで、彼らはこれを増やすべきではないと思う」と彼は言った.
ヒントン博士は、彼らが構築したテクノロジーの危険性について警鐘を鳴らした最初の AI 専門家ではありません。 ここ数カ月で、2 つの主要な公開書簡が、それがもたらす「社会と人類に対する深刻な危険」について警告し、その作成を支援した多くの人々によって署名されました。
ヒントン博士は、他の多くの人と同じように、OpenAI の ChatGPT や Google Bard などの技術の開発により、この 1 年間でこの技術の危険性についてより懸念するようになったと述べています。 人間の脳では不可能な方法でシステムが動作し始めていると信じるようになったとき、彼の見方は変わりました。
「これらのシステムで起こっていることは、実際には脳で起こっていることよりもはるかに優れているかもしれません」と彼は言いました。 ニューヨークタイムズ.
これは、企業が AI システムを改善およびトレーニングするにつれて、今後数年間でさらに真実になる可能性があります。 彼らがそうするにつれて、政権はより危険になると彼は恐れている。
「5 年前と現在の様子を見てください」と彼はこの技術について語った。 「差を取って前に広げる。怖い」
More Stories
Nintendo Switch の最高のグラフィックス: 7 年間にわたるサードパーティ開発者の才能の結晶
エヌビディアの失望で日本の日経平均株価が下落
Apple Intelligence の写真アプリのクリーンアップ ツールの動作をご覧ください