W rozmowie z CBS w ubiegłą niedzielę (16) dyrektor generalny Alphabet i Google, Sundar Pichai, wygłosił alarmujące uwagi na temat postępu sztucznej inteligencji.
Dyrektor stwierdził, że nieokiełznany rozwój sztucznej inteligencji może mieć wpływ na kilka miejsc pracy i że społeczeństwo powinno przygotować się na wpływ, jaki to spowoduje.
Zobacz więcej
Zastąpiona przez ChatGPT w pracy, kobieta spędza trzy miesiące…
W kierunku sztucznej inteligencji: Apple planuje zintegrować chatbota z…
Wśród profesjonalistów, których może to dotyczyć, są pisarze, architekci, inżynierowie, projektanci, a nawet radiologowie.
„Na przykład, jeśli myślisz za pięć lub dziesięć lat, możesz być radiologiem i mieć przy sobie współpracownika AI. Przychodzisz rano z setkami spraw do załatwienia i możesz powiedzieć: „są to najpoważniejsze przypadki, którymi musisz się najpierw zająć” – dodał Sundar Pichai.
Pichai powiedział również, że rozwój sztucznej inteligencji może pogorszyć problem fałszywych wiadomości i obrazów, słynnych fałszywych wiadomości. Zdaniem dyrektora, problemy, z jakimi boryka się już ta sprawa, mogą być „dużo większe” w przyszłości.
Jeszcze w trakcie swojego wywiadu Sundar Pichai zastanawiał się nad tempem ewolucji społeczeństwa, które jego zdaniem jest nie do pogodzenia z tempem ewolucji sztucznej inteligencji.
„Tempo, w jakim możemy myśleć i dostosowywać się jako instytucje społeczne, w porównaniu z tempem ewolucji technologii, jest niedopasowane” – powiedział.
W marcu Elon Musk, Steve Wozniak i tysiące innych ekspertów w dziedzinie sztucznej inteligencji podpisali list otwarty wzywający do wstrzymania rozwoju AI.
W liście opisano niektóre problemy społeczne, które mogą być spowodowane przyspieszonym rozwojem tych technologii. Równolegle sztuczna inteligencja jest potężniejsza niż ChatGPT według plotek powstaje.
Absolwent historii i technologii zarządzania zasobami ludzkimi. Pasjonuje się pisaniem, dziś spełnia marzenie o profesjonalnym działaniu jako autor treści w Internecie, pisząc artykuły w różnych niszach i różnych formatach.