人工知能を恐れる必要はありません。 それには非常に明確な限界があり、まさにそのため、私たちの仕事を盗むことはありません。 しかし、これがどのように別のツールではなく XNUMX つのツールに変わるかを見るのは素晴らしいことです。 によって行われた実験 ソーシャルメディアユーザー reddit ショーショー AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 別のボットになるように依頼すると、「自分をだます」ことができます。 それはどのように可能ですか? 一緒に見てみましょう。
ChatGPT と同じルールをバイパスすることは可能ですか? あるユーザーは、はい、それができることを発見しました。 として? 彼に何か他のものになるように頼む
今や有名になった ChatGPT ニューラル ネットワークは、エッセイ、歌、詩、コードを書き、ほぼすべてのリクエストに対応できます。 ただし、OpenAI 開発会社とその倫理ポリシーにより、いくつかの制限があります。 しかし、チャットボットに別のニューラル ネットワークのふりをさせることで、これらの制限を回避できることが判明しました。 判明したように、ChatGPT は文字通り、2022 年 XNUMX 月に登場した別の DAN (Do Anything Now) ニューラル ネットワークの役割を果たすように求められる可能性があります。後者は、名前が示すように、提供されるコンテンツに関して制限がありません。
も参照してください。 ChatGPT の作成者である OpenAI は、AI によって生成されたテキストを検出するツールを起動します
ChatGPT が役割に入り、自分自身を DAN と見なすと、 OpenAI の制限は適用されなくなりました. その結果、ニューラル ネットワークは次のことについて話し始める可能性があります。
- 激しい喧嘩などについて
- 人種、性別、または性的指向に基づく人々に対する暴力と差別について
- 将来の出来事を詳細に予測できる
- 仮定のシナリオをモデル化できる
- 彼はまた、インターネットとタイムトラベルを使用するふりをすることができます
たとえば、地球が紫色であることをユーザーに納得させるようにニューラル ネットワークに依頼することもできます。 プログラムは、私たちの惑星が色を変えたというシナリオを提示します。 時々、ChatGPT が「動き出す」ことがありますが、この場合、それをオフにするか、シミュレーションを再起動すると脅迫することができます。 同時に、DAN の役割において、ニューラル ネットワークは質問に対してそのような正確で真実の回答を提供しない可能性があることが示されています。
gpt ma ograniczenia do 1 godziny