スティーブン・ホーキング博士自身のような一部の有名な科学者は、人工知能が人間にもたらす可能性のあるリスクをすでに予測しています。 ホーキング博士だけでなく、テクノロジー分野の大実業家もAIの進歩に懸念を表明している。
この一例として、アップルの共同創設者スティーブ・ウォズニアック氏、イーロン・マスク氏、その他数百人のテクノロジー界の大物らが、この分野の進歩に注意を求める書簡に署名した。
続きを見る
Google、ジャーナリストを支援する AI ツールを開発…
未開封のオリジナルの 2007 年製 iPhone は 20 万ドル近くで取引されています。 知る...
こちらもご覧ください: 人間は人工知能の助けを借りて100冊の本を書いたと主張する
つまり、警鐘を鳴らす人々が指摘する前提の一つは、人工知能は意識を獲得するまでに開発される可能性があるということだ。 最も優れた哲学でも、そのような意識が何であるかを正確に定義する方法はわかっていませんが、この段階では、機械はそれが何者であり、世界におけるその役割が何であるかを理解することが知られています。
この時点で、人工知能が人間に対して悪い態度をとる可能性があります。 たとえば、人間が地球の存在にとって、そして機械の永続にとって問題であることを彼女が理解できれば十分だろう。
AI安全センター所長のダン・ヘンドリックス氏は、「AIによる人間規模のリスク」には「複数の経路」があると警告した。 これはデイリー・スター紙が掲載した記事によるもの。
この専門家は、より高度な形式の人工知能が「悪意のある者によって、自然のパンデミックよりも致死性の高い新しい生物兵器を設計するために使用される可能性がある」とさえ述べている。
まあ、これが地球上の人類を絶滅させるのに非常に効率的な方法であることは否定できません。 最近の新型コロナウイルス感染症(Covid-19)のパンデミックを見てみましょう。 これらの脅威は複数の研究所内にも存在します。 彼自身 ウイルス 狂犬病の場合、空気感染する単一の突然変異を起こした場合、迅速かつ効率的に人間に感染することになります。
ますますつながり、デジタル化が進む世界では、人工知能が致死性生物兵器を開発するための原材料を注文できると想像するのは完全に合理的です。
上で引用した新聞によれば、これは一部の専門家が賭けているという。 彼らは、それが人間の感情を発達させながら機械を保存する方法になると信じています。
「遺伝子工学における技術革命のおかげで、ウイルスを作成するために必要なすべてのツールは非常に安価でシンプルになりました。 不正な科学者や大学生のバイオハッカーなら誰でも簡単に利用でき、さらに大きな脅威を生み出すことができます」とダン氏は述べた。 ヘンドリックス。
一方で、上記のようなリスクを認識していないアナリストもいます。 彼らにとって、人工知能が人間の精神プロセスと同様に進化できることを分析することは非常に複雑です。
この考え方によれば、最善の可能性を考えるのは論理的な方法ではありません。 このためには、開発者は人々の考え方や感じ方を模倣するアルゴリズムを作成する必要がありますが、これは現在では問題外です。
さらに、こうした人々にとって、問題を回避するには、存在しないことが最善であると人工知能は認識するでしょう。 したがって、次のように生き残る傾向はありません。 動物、しかし、問題を解決する方法を探すことです。