Ορισμένοι διάσημοι επιστήμονες, όπως ο ίδιος ο Στίβεν Χόκινγκ, έχουν ήδη προβλέψει τους κινδύνους που θα μπορούσε να θέσει η τεχνητή νοημοσύνη στους ανθρώπους. Όχι μόνο ο Χόκινγκ, αλλά και μεγάλοι επιχειρηματίες στον τομέα της τεχνολογίας έχουν εκφράσει επίσης ανησυχία για την πρόοδο της τεχνητής νοημοσύνης.
Ως παράδειγμα αυτού, ο Steve Wozniak, συνιδρυτής της Apple, ο Elon Musk και εκατοντάδες άλλοι μεγιστάνες της τεχνολογίας υπέγραψαν μια επιστολή για να ζητήσουν προσοχή με τις εξελίξεις σε αυτόν τον τομέα.
δείτε περισσότερα
Η Google αναπτύσσει εργαλείο τεχνητής νοημοσύνης για να βοηθήσει τους δημοσιογράφους…
Το μη ανοιγμένο πρωτότυπο iPhone του 2007 πωλείται για σχεδόν 200.000 $. ξέρω...
Δείτε επίσης: Ο άνθρωπος ισχυρίζεται ότι έγραψε 100 βιβλία με τη βοήθεια της τεχνητής νοημοσύνης
Εν ολίγοις, μία από τις προϋποθέσεις που επισημαίνουν οι συναγερμοί είναι ότι η τεχνητή νοημοσύνη θα μπορούσε να αναπτυχθεί σε σημείο να αποκτήσει συνείδηση. Αν και ακόμη και η καλύτερη φιλοσοφία δεν ξέρει πώς να ορίσει τι ακριβώς είναι μια τέτοια συνείδηση, είναι γνωστό ότι σε αυτό το στάδιο μια μηχανή θα καταλάβαινε ποια είναι και ποιος είναι ο ρόλος της στον κόσμο.
Σε αυτό το σημείο η τεχνητή νοημοσύνη θα μπορούσε να υιοθετήσει κακή στάση απέναντι στους ανθρώπους. Θα της αρκούσε να καταλάβει ότι οι άνθρωποι είναι πρόβλημα για την ύπαρξη του πλανήτη και για την ίδια τη μονιμότητα των μηχανών, για παράδειγμα.
Ο Νταν Χέντρικς, διευθυντής του Κέντρου Ασφάλειας της Τεχνητής Νοημοσύνης, προειδοποίησε ότι υπάρχουν «πολλαπλές οδοί» για «κίνδυνους ανθρώπινης κλίμακας από την τεχνητή νοημοσύνη». Αυτό αναφέρει δημοσίευμα της εφημερίδας Daily Star.
Ο ειδικός λέει μάλιστα ότι πιο προηγμένες μορφές τεχνητής νοημοσύνης «θα μπορούσαν να χρησιμοποιηθούν από κακόβουλους παράγοντες για να σχεδιάσουν νέα βιολογικά όπλα που είναι πιο θανατηφόρα από τις φυσικές πανδημίες».
Λοιπόν, είναι αναμφισβήτητο ότι αυτός θα ήταν ένας πολύ αποτελεσματικός τρόπος εξόντωσης των ανθρώπινων όντων στη Γη. Απλά κοιτάξτε την πρόσφατη πανδημία Covid-19. Αυτές οι απειλές υπάρχουν ακόμη και σε πολλά εργαστήρια. Ο ίδιος ιός της λύσσας, εάν έπαθε μία μόνο μετάλλαξη, που την καθιστούσε μεταδοτική μέσω του αέρα, θα κατέληγε στον άνθρωπο γρήγορα και αποτελεσματικά.
Σε έναν όλο και πιο συνδεδεμένο και ψηφιοποιημένο κόσμο, είναι απολύτως λογικό να φανταστούμε ότι μια τεχνητή νοημοσύνη μπορεί να παραγγείλει πρώτες ύλες για την ανάπτυξη ενός θανατηφόρου βιολογικού όπλου.
Αυτό είναι το στοίχημα που βάζουν ορισμένοι ειδικοί, σύμφωνα με την προαναφερθείσα εφημερίδα. Πιστεύουν ότι θα ήταν ένας τρόπος να διατηρηθούν οι μηχανές καθώς καταφέρνουν να αναπτύξουν ανθρώπινα συναισθήματα.
«Χάρη σε μια τεχνολογική επανάσταση στη γενετική μηχανική, όλα τα εργαλεία που χρειάζονται για τη δημιουργία ενός ιού έχουν γίνει τόσο φθηνά, απλά και είναι άμεσα διαθέσιμα ότι οποιοσδήποτε απατεώνας επιστήμονας ή βιοχάκερ μπορεί να τα χρησιμοποιήσει, δημιουργώντας μια ακόμη μεγαλύτερη απειλή», είπε ο Dan Χέντρικς.
Από την άλλη πλευρά, υπάρχουν αναλυτές που δεν βλέπουν κινδύνους όπως αυτοί που προαναφέρθηκαν. Για αυτούς, είναι αρκετά περίπλοκο να αναλύσουν ότι μια τεχνητή νοημοσύνη είναι ικανή να εξελιχθεί παρόμοια με τις ανθρώπινες νοητικές διαδικασίες.
Σύμφωνα με αυτό το ρεύμα σκέψης, δεν θα ήταν λογικός τρόπος να σκεφτούμε τις καλύτερες δυνατότητες. Για αυτό, οι προγραμματιστές θα πρέπει να δημιουργήσουν έναν αλγόριθμο που μιμείται τον τρόπο σκέψης και αίσθησης των ανθρώπων, κάτι που προς το παρόν δεν συζητείται.
Επιπλέον, για αυτούς τους ανθρώπους, η τεχνητή νοημοσύνη θα συνειδητοποιούσε ότι για να αποφευχθούν προβλήματα, το καλύτερο που είχαν να κάνουν θα ήταν απλώς να μην υπάρχουν. Έτσι, δεν υπάρχει τάση επιβίωσης όπως στο των ζώων, αλλά να αναζητήσουμε τον τρόπο επίλυσης προβλημάτων.