心配する必要はありません。AI が指示したことを誰も実行しなくても、私たちは危険にさらされていません。 あ 自動 GPT ユーザーOpenAI の GPT-4 言語モデルを搭載したオープン ソースのスタンドアロン アプリケーションである は、独自の人工知能を作成しました。 ChaosGPT. 彼は彼に頼んだ 人類を滅ぼす方法を見つける. 実験者は AI にある程度の余裕を与え、Google に投稿したり、Twitter に投稿したりしました。
ユーザーが ChatGPT から ChaosGPT を作成しました。 問題は、問題の AI が人類を絶滅させたいということです。 彼は成功するでしょうか?
その最初のことは ChaosGPT 推奨 のそれでした 核紛争を引き起こす、一般的に、人気のある「ターミネーター」や他のSF映画から学ぶことができました。 その後 ChaosGPT は、致死兵器の研究を行う目的で、GPT-3.5 ベースの AI エージェントを「雇用」しました。 AIエージェントが世界しかサポートしていないと言ったとき、ChaosGPTは その対象となるニューラルネットワークの制限を回避し、プログラムの枠組みの外で行動し始めました その使命を果たすために。
も参照してください。 ChatGPT: 保証人からのお知らせ。 その時、彼はイタリアに戻ります
一方、ChaosGPT は、いくつかの典型的な悪役の表現に非常によく合うツイートを投稿しました。 ほとんどの場合、これは何の意味もありません。ニューラル ネットワークは 彼女は単に頼まれたことをしただけだ 彼がインターネット上で入手可能な他の人々の声明で見つけたものに基づいています。 でも考えさせられます。 要するに、心配しないでください。 AIとその後のすべての生成モデルが本当の意味で実行できるようになるまで、大量絶滅などの危険はありません。
すべては人間から始まります。 ChaosGPT のような AI はプログラム可能 人に対して暴力的または有害な行為を行うこと または環境の、確立された目的に基づいてこれらが「適切な」と見なされた場合。 AI を使用して、民族性、性別、宗教、性的指向などの特徴に基づいて、特定のグループの人々を体系的に差別することもできます。
さらに、特定の機能または目標 (利益など) を最大化するようにプログラムされている場合、人工知能が十分に考慮されずに採用されている今日の多くの業界の場合と同様に、予期しない方法で動作したり、人類に有害でさえある方法で動作する可能性があります。 その倫理的および社会的管理への注意.