私は Apple の音声アシスタントである Siri を十数年近く知っていますが、いまだに意味のある会話を一つも思い出すことができません。 一方、ChatGPT と私は知り合って 6 か月になりますが、人生の意味から 2 人でのロマンチックなディナーの計画まで、あらゆることについて話し、プログラミングや映画プロジェクトで協力することさえありました。 つまり、私たちは関係を持っています。
Siri の制限により、彼はまだ会話を続けることも、長期にわたるプロジェクトに参加することもできません。 良くも悪くも、今日私たちが iPhone、iPad、MacBook、Apple Watch、Apple TV で使用している Siri は、2011 年に iPhone 4s で最初に見たものと大差ありません。
6年前、私はそれについて書いた Siri初の脳移植 (新しいタブで開きます)、Apple が機械学習を使用して Siri をトレーニングし、会話型クエリへの応答能力を向上させ始めた瞬間です。 機械学習の導入と、その後すぐに iPhone 8 に搭載された Apple の A11 Bionic チップの形で組み込まれたニューラル ネットワークは、最初のコンシューマ レベルのデジタル アシスタントの転換点であると私が考えたものをマークしました。
このプログラミングとシリコンは、Siri が質問とそのコンテキストを理解するのに役立ち、より自然な言語の質問へのインテリジェントな応答への単純な回答を超えて移動できるようにしました。
初期のシリは彼女ではなかった
私たちはすでに映画を見ましたが、Siriと完全に話すことができないことは大した問題ではないようです. ハ そして、チャットボットに最終的に何を期待できるかを理解しています。
しかし、OpenAI の GPT-3 と ChatGPT によって、この遠い未来が現在にスナップされて初めて、Siri の無能さが最初に救われました。
Apple の最善の努力にもかかわらず、Siri は学習モードで遅くなりました。 これはおそらく、Siri がまだ主に生成 AI ではなく機械学習に基づいて構築されているためです。 それが学習と創造性の違いです。
今日私たちが使用している AI を利用したチャットボットと画像ツールはすべて、プロンプトから、そして間もなくアートと画像から、まったく新しいものを作成しています。 彼らはボットに答えているのではなく、建設ボットです。
このどれかが Apple を逃しているとは思えない。 問題は、Apple が何をしようとしているのか、それに対して何ができるのかということです。 次回の Worldwide Developers Conference (WWDC 2023) 以外に目を向ける必要はないと思います。 私たちは皆、Apple が 6 月に披露する可能性のある 3,000 ドルの複合現実ヘッドセットに注目していますが、同社の最大の発表は確かに人工知能に関するものです。
「Google と Microsoft が独自の自然言語ソリューションを展開している今、Apple は信じられないほどのプレッシャーにさらされているに違いありません」と Moor Insights の CEO 兼 Cheif アナリスト パトリック・モアヘッド (新しいタブで開きます) TwitterのDMで教えてください。
Siriはもっとおしゃべりです
好き 9to5Macで報告されました、Apple は実際に – ついに – Siri (Bobcat) の言語作成を更新するかもしれません。 これは「ジェネレーティブ AI」とは異なることに注意してください。 それは、Siriがカジュアルな冗談で少し上手になることを意味すると思います. 私もそれ以上のことはあまり期待していません。
残念ながら、Apple 自身の精神が、GPT-3 どころか GPT-4 に追いつくことを妨げている可能性があります。 業界ウォッチャーは、ブレークスルーの瞬間を正確には期待していません。
「彼らが AI で行っていることは、Siri の AI に対するより倫理的で慎重なアプローチほど飛躍的であるとは限らないと思います。Apple は、プライバシーへのコミットメントによって愛され、生き、死にます。私は、その方法に劣らず期待しています。より高度に AI に依存する Siri を提供します。 (新しいタブで開きます) 彼は私に手紙を書いた。
何よりもプライバシー
ユーザーのプライバシーに対する Apple の揺るぎない遵守は、真のジェネレーティブ AI となると、その仕事の邪魔になる可能性があります。 Google や Microsoft Bing とは異なり、検索エンジンに依存する巨大なデータ ストアはありません。 また、膨大なインターネット データの海で AI をトレーニングすることもありません。 Apple はデバイス上で機械学習を行います。 iPhone と Siri は、Apple があなたと 15 億人の世界中の iPhone ユーザーについて知っていることではなく、あなたの電話にあるものに基づいてあなたについて知っていることを知っています。 確かに、開発者は Apple の ML ツールを使用して新しい AI モデルを構築し、それらをアプリに統合できますが、単純にデータを収集してユーザーについて詳しく学び、Apple がより優れた Siri AI を提供できるようにすることはできません。
2016 年に私が書いたように、「Apple が自社の AI の取り組みを故意に妨害する方法を考えるのも興味深いことです。たとえば、iTunes での購入習慣に関するデータは、Apple の他のシステムやサービスとは共有されません。」
Apple の国内アプローチは、潜在的な AI への取り組みを妨げる可能性があります。 Morehead 氏が私に語ったように、「私はデバイス上とクラウド上でほとんどのアクションを見ています。Apple はデバイスでは強いですが、クラウドでは弱いので、会社が苦戦するだろうと私は思います。」
私が見ているように、Apple には選択の余地があります。 ユーザーのプライバシーを少し放棄して、最終的に Siri を私たちが常に望んでいた音声アシスタントに変えるか、Siri を改善するが ChatGPT に匹敵することはできない段階的な AI アップデートでコースを継続します。
More Stories
Nintendo Switch の最高のグラフィックス: 7 年間にわたるサードパーティ開発者の才能の結晶
エヌビディアの失望で日本の日経平均株価が下落
Apple Intelligence の写真アプリのクリーンアップ ツールの動作をご覧ください