あ OpenAI, ChatGPTの親会社は、その作成者であるサム・アルトマン氏の出入りにより経営が不安定な日々に直面している。
それだけでは十分ではなかったかのように、事件の直前に次のような情報が明らかになりました。 アルトマン氏の解任はその後復職しており、同社取締役会は報告書を受け取った 憂慮すべきこと。
続きを見る
ネスレ、北東部におけるチャミトボックス製品ラインの多角化を発表
間もなく、Vivo は固定インターネット経由で 5G 接続を提供する予定です。 もっと知ってください!
この文書の中で研究者らは、Q* (Q-Star) と呼ばれる AI プログラムが開発されていると指摘しました。 並行して開発され、人類の安定に深刻なリスクをもたらす可能性があります。 未来。
この情報を公開したロイター通信によると、Q* は基本的に基礎レベルの数学的な質問に答えるために広範な計算能力を使用します。
テクノロジーを開発している研究者は、一目見て興奮しました。 彼女は質問に比較的短時間で完全に答えることができるという事実 自律的な。
しかし、この新しい人工知能が示す危険は、この基本的な概念化にあるわけではありません。 結局のところ、単純な電卓でも、それほど複雑ではない数学的演算を実行できます。
専門家が本当に懸念したのは、Q-Star の質問に対する返答の仕方です。 従来の電卓のバイナリ コードのような静的な計算パターンを使用する代わりに、AI は与える各答えに固有のパターンを使用します。
言い換えれば、Q* は、その前に置かれた各質問に対していくつかの異なる答えを与えることができるため、「発明」や誤解を招くデータの提供の余地が残されています。
(画像:Freepik/転載)
現在の大騒ぎにもかかわらず、Q-Star で観察されたこの動作は、人工知能の世界では新しいものではありません。
独自のチャットボットを含む他のインテリジェントなチャットボット チャットGPT、彼らはすでに、独自のトレーニング方法に起因する失敗で「現行犯逮捕」されています。
一般に、AI は人間の脳とまったく同じになるように訓練されています。 言い換えれば、与えられた情報を分析してパターンを特定し、それに取り組む必要があります。 この論理によって、私たち人間は知識を学び、伝えることができます。
しかし、そのような「推論」権限を機械に委任することは、人類に対する一種の「反逆」の危険な前例となる可能性があります。
これは、人工知能がパターンの分析を通じて結論を下すことを妨げるものがないためです。 人類が脅威であるとか、特定の人物を排除する必要があるとか、 例。
さらに悪いことに、AI は犯罪者によって犯罪を犯したり、政治的および商業的決定に干渉したり、人々のイメージを傷つけたりするために利用される可能性があります。
特定の人物のイメージを「汚す」には、その人物に関する否定的な情報を AI に提供するだけです。 一方、ChatGPT のようなチャットボットは、何らかの方法で人々に影響を与え、特定の政治的側面に従うよう指示することができます。
人工知能が進歩し、社会のあらゆる分野に普及するにつれ、その倫理的および平和的利用に関する懸念が議論の中心に据えられる必要があります。
AI の目標は、人類を次のレベルに押し上げることであり、犯罪者を助けたり、人間関係をさらに不安定にする兵器として機能することではありません。
歴史と人材テクノロジーを専攻して卒業。 書くことに情熱を持っている彼は、現在、Web コンテンツ ライターとしてプロとして働き、さまざまな分野や形式で記事を書くという夢を抱いています。