興味がありますか オファー? クーポンを利用して節約しましょう WhatsApp o 電報!

OpenAI は AI の「壊滅的な」リスクに対応するチームを創設します。 だからこそ私たちに関係があるのです

人工知能分野の最前線に立つ企業、OpenAIが最近 発表 ~という特定のタスクを行う新しいチームの作成 AI関連テクノロジーの進歩に伴う潜在的な壊滅的なリスクを評価し、軽減する。 この動きは、生成モデルがもたらす可能性のある課題と危険に積極的に対処することの重要性が高まっていることを浮き彫りにしています。 明らかに、適切に監視されていない場所です。

OpenAIによるリスク特定

人工知能が急速に進化するにつれて、地球規模で深刻な影響を与える可能性のある新たなリスクが出現します。 このために、新しい OpenAI 準備チームは次のことに専念します。 記録します, 評価します, 見越します e 守る これらの潜在的な問題に対して。 特定されたリスクには次のようなものがあります。 脅威 、AI 分野における責任ある行動の緊急性を強調するテーマです。

核の脅威に加えて、チームは物質関連の危険にも焦点を当てます 化学的、生物学的、放射線学的、さらには科学的観点からも人工知能の自己複製現象、または人工知能システムが自律的に複製する能力。 その他の焦点分野には、人間を欺く AI の能力や、 脅威 A サイバーセキュリティー.

高度なAIの利点と課題

OpenAI は、最先端の既存モデルの機能を超えるフロンティア AI モデルには、 全人類に利益をもたらす。 いや、あなたの考えに反して、人工知能は私たちの仕事を奪うために存在しているわけではありません むしろ、それを作成することです。

しかし、大きな力には大きな責任も伴います。 したがって、開発が不可欠です ポリシー リスクについての情報を得ることで、 AIモデルの評価と監視、利益が関連するリスクを確実に上回るようにするためです。

openai は、chatgpt でバグを見つけると報酬を提供します

も参照してください。 DeepMind には AI リスクを防ぐソリューションがあります

この新しいチームのリーダーシップは、 アレクサンダー・マドリー, 機械学習分野の第一人者。 現在、彼は休暇中です のディレクターの役割 MIT の展開可能な機械学習センター, マドリー リスクを考慮した開発政策を策定し、維持するための取り組みを調整します。

世界的な優先事項に向けて

OpenAIのCEO、 Sam Altman, それは新しいものではありません AI の潜在的に壊滅的なリスクについての懸念。 彼は、AI テクノロジーの扱いは適切であるべきだと提案しました。核兵器と同じくらい真剣に受け止められている、AIに関連する絶滅のリスクを軽減するための集団的な取り組みの必要性を強調しています。 この新しいチームは、このビジョンの実現に向けた具体的な一歩を表し、OpenAI の社会貢献への取り組みを強調しています。 人工知能の責任ある管理.

ジャンアルカ・コブッチ
ジャンアルカ・コブッチ

コード、言語、マンマシンインターフェイスに情熱を持っています。 私にとってはテクノロジーの進化すべてに興味があります。 私は、「最初のパス」ではなく、信頼できる情報源に頼って、自分の情熱を最大限に明確に伝えるように努めています。

購読します
知らせます
ゲスト

0 注釈
インラインフィードバック
すべてのコメントを見る
XiaomiToday.it
及び