
人工知能の世界は常に進化しており、OpenAI も最新の言語モデルのリリースにおいて例外ではありません。 GPT-4o、以前のものの高度なバージョン GPT-4ターボ。この新しいイテレーションは単に改善されるだけではなく、機能が大幅に拡張され、それ以上のものを含めることができます。 テストー e 画像また、オーディオ.
OpenAI が GPT-4o を紹介: GPT-XNUMXo とは何か、何ができるのか
GPT-4o は、複数の対話モードが統合されているため、「オムニ」バージョン (名前に「o」が付いている) として説明されています。 テストー, ビジョン そしていま、 ボース。このモデルはユーザーの質問にリアルタイムで応答するため、応答中にシステムを中断したり、 途中でアプリケーションを変更する。さらに、ユーザーの声に含まれる感情を認識して適切に応答し、歌の応答を含む感情的な応答スタイルを変化させることができます。
あなたも好きかも: 人工知能の言語モデルとは何ですか?
音声対話に加えて、GPT-4o ChatGPT のビジュアル機能を大幅に強化。たとえば、写真やスクリーンショットに関する質問にすぐに答え、T シャツのブランドや表示されたソフトウェア コードの内容などの詳細を特定できるようになりました。外国語でメニューを撮影し、すぐに翻訳を受け取ることができることを想像してください。これは GPT-4o で可能な将来のシナリオの XNUMX つにすぎません。
新しい OpenAI GPT-4o モデルは、 50 を超える言語のサポートが強化されました、以前の GPT-4 Turbo ea と比較して XNUMX 倍のパフォーマンスを保証します。 半額、使用制限が高くなります。これにより、よりシームレスでアクセスしやすいユーザー エクスペリエンスが実現し、さまざまな国際的な状況での使用の可能性が広がります。
可用性と終了
GPT-4oは現在 ChatGPTの無料版のユーザーは無料で利用できます プレミアム プランの加入者には、メッセージ制限が 5 倍になります。これらの変更には、より直観的で会話型の刷新されたユーザー インターフェイス レイアウトが伴います。 macOS 用デスクトップバージョン、すぐに Windows バージョンが続く予定です。さらに、ユーザー設定を「記憶する」機能など、以前は有料だった機能へのアクセスがすべてのユーザーに拡張されました。