のリーダーたち OpenAIChatGPTの開発を担当する組織は、「超知能」知能の規制を求めている。
彼らは国際エネルギー機関に似た規制機関の創設を主張している 原子力は、 元に戻すこと。
続きを見る
Google、ジャーナリストを支援する AI ツールを開発…
未開封のオリジナルの 2007 年製 iPhone は 20 万ドル近くで取引されています。 知る...
同社のウェブサイトに掲載された短い声明の中で、共同創設者のグレッグ・ブロックマン氏とイリヤ・サツケヴァー氏、そしてCEOのサム・アルトマン氏は次のように述べた。 諜報システムの認証作業を開始するための国際規制機関の創設を求める 人口的。
この提案は、監査、セキュリティ標準への準拠テスト、展開およびセキュリティ レベルの制限の実装を実施することを目的としています。 これらの措置は、これらのシステムに関連する実存的リスクを軽減し、人類を潜在的な危険から守ることを目的としています。
数十年にわたり、研究者たちは超知能に潜在的に関連するリスクを強調してきましたが、実際にその進化が見られました。 しかし、AIの開発が急速に進むにつれ、こうしたリスクはますます具体的になっていきます。
○ AI安全性センター (CAIS) は米国に拠点を置き、人工知能に関連する社会的リスクの軽減に注力しており、次のことを特定しています。 AIの開発に関連して「壊滅的」および「存在する」とみなされるリスクの8つのカテゴリー。 例。 深刻なリスクが存在し、私たちはそれらにさらされています。
今後 10 年以内に、AI システムがいくつかの領域で専門的なスキルのレベルに達することが想像できます。 そして、今日の大手企業の一部と同じくらい生産性を高め、 オープンAI。
AI のこの急速な進化は、多くの生産活動の効率と自動化を維持しながら、多くの業界を大きく変える可能性を秘めています。
潜在的な利点と保護の観点から、スーパーインテリジェンスはより高度なテクノロジーであると考えられています。 人類が過去に対処してきたものよりも強力であると指導者のメッセージは述べた。
将来は大幅に繁栄する見通しですが、このシナリオを達成するにはリスクを慎重に管理することが不可欠です。 彼らがメモで報告したように、存続リスクの可能性に直面すると、状況が発生したときにただ対応するのではなく、積極的な姿勢を採用することが重要です。
当面の状況として、同グループは、先端研究に携わる企業間の「ある程度の調整」の必要性を強調している。 AI では、ますます強力になるモデルを社会にスムーズに統合するために、特に優先事項として、 安全。
このような調整は、AI 機能の進歩を制限しようとする取り組みや労働協約を通じて確立される可能性があります。 これらのアプローチは、含まれるリスクを考慮して、管理された責任ある方法で AI 開発が許可されるようにするための鍵となります。
映画やシリーズ、映画に関わるすべてのことが大好きです。 ネットワークに積極的に興味を持ち、常にウェブに関する情報に接続しています。