ΕΝΑ OpenAI, η μητρική εταιρεία του ChatGPT, αντιμετωπίζει μέρες διοικητικής αστάθειας με τις ερμηνείες του δημιουργού της, Σαμ Άλτμαν.
Σαν να μην έφτανε αυτό, ήρθαν στο φως πληροφορίες ότι λίγο πριν την απόλυση του Άλτμαν, ο οποίος έκτοτε έχει αποκατασταθεί, το διοικητικό συμβούλιο της εταιρείας έλαβε έκθεση ανησυχητικός.
δείτε περισσότερα
Η Nestlé ανακοινώνει τη διαφοροποίηση της σειράς Chamyto Box στα βορειοανατολικά
Σύντομα, η Vivo θα προσφέρει σύνδεση 5G μέσω σταθερού διαδικτύου. μάθετε περισσότερα!
Στο έγγραφο, οι ερευνητές επεσήμαναν ότι ένα πρόγραμμα AI που ονομάζεται Q* ή Q-Star, το οποίο είναι που αναπτύχθηκε παράλληλα, θα μπορούσε να αποτελέσει σοβαρό κίνδυνο για τη σταθερότητα της ανθρωπότητας στην μελλοντικός.
Σύμφωνα με το πρακτορείο ειδήσεων Reuters, το οποίο δημοσίευσε αυτές τις πληροφορίες, το Q* χρησιμοποιεί εκτεταμένη υπολογιστική ισχύ για να απαντήσει βασικά σε μαθηματικές ερωτήσεις θεμελιώδους επιπέδου.
Με την πρώτη ματιά, οι ερευνητές που ανέπτυξαν την τεχνολογία ενθουσιάστηκαν από το γεγονός ότι μπορεί να απαντήσει σε ερωτήσεις σε σχετικά σύντομο χρονικό διάστημα και πλήρως αυτονόμος.
Ωστόσο, ο κίνδυνος που αντιπροσωπεύει αυτή η νέα Τεχνητή Νοημοσύνη δεν έγκειται σε αυτή τη βασική εννοιολόγηση. Εξάλλου, ακόμη και οι απλές αριθμομηχανές μπορούν να εκτελέσουν λιγότερο περίπλοκες μαθηματικές πράξεις.
Αυτό που πραγματικά ανησύχησε τους ειδικούς είναι ο τρόπος με τον οποίο το Q-Star απαντά στις ερωτήσεις τους. Αντί να χρησιμοποιεί στατικά μοτίβα υπολογισμού, όπως οι δυαδικοί κώδικες των συμβατικών αριθμομηχανών, το AI χρησιμοποιεί μοναδικά μοτίβα σε κάθε απάντηση που δίνει.
Με άλλα λόγια, το Q* μπορεί να δώσει πολλές διαφορετικές απαντήσεις σε κάθε ερώτηση που τίθεται μπροστά του, γεγονός που αφήνει περιθώρια για «εφευρέσεις» ακόμη και για την παροχή παραπλανητικών δεδομένων.
(Εικόνα: Freepik/reproduction)
Παρά τις τρέχουσες φανφάρες, αυτή η συμπεριφορά που παρατηρείται στο Q-Star δεν είναι νέα στον κόσμο της Τεχνητής Νοημοσύνης.
Άλλα έξυπνα chatbots, συμπεριλαμβανομένου του δικού σας ChatGPT, έχουν ήδη «πιαστεί στα χέρια» σε αποτυχίες που προκύπτουν από τη δική τους μέθοδο προπόνησης.
Σε γενικές γραμμές, οι AI εκπαιδεύονται ώστε να είναι ακριβώς όπως ένας ανθρώπινος εγκέφαλος. Με άλλα λόγια, πρέπει να αναλύσουν τις πληροφορίες που τους δίνονται για να προσπαθήσουν να εντοπίσουν μοτίβα και να εργαστούν πάνω τους. Αυτή η λογική είναι που επιτρέπει σε εμάς τους ανθρώπους να μαθαίνουμε και να μεταδίδουμε γνώση.
Ωστόσο, η ανάθεση μιας τέτοιας «συλλογιστικής» δύναμης στις μηχανές θα μπορούσε να δημιουργήσει ένα επικίνδυνο προηγούμενο για ένα είδος «εξέγερσης» κατά της ανθρωπότητας.
Αυτό συμβαίνει γιατί τίποτα δεν εμποδίζει μια Τεχνητή Νοημοσύνη να καταλήξει, μέσω μιας ανάλυσης προτύπων οποιαδήποτε, ότι η ανθρωπότητα αποτελεί απειλή ή ότι ένα συγκεκριμένο άτομο πρέπει να εξαλειφθεί, γιατί παράδειγμα.
Το χειρότερο από αυτό, οι AI μπορούν να χρησιμοποιηθούν από εγκληματίες για να διαπράξουν εγκλήματα, να παρέμβουν σε πολιτικές και εμπορικές αποφάσεις, να αμαυρώσουν την εικόνα των ανθρώπων κ.λπ.
Για να «λερώσετε» την εικόνα ενός συγκεκριμένου ατόμου, απλώς δώστε στο AI αρνητικές πληροφορίες για αυτό το άτομο. Από την άλλη πλευρά, τα chatbots όπως το ChatGPT μπορούν να λάβουν οδηγίες με κάποιο τρόπο να επηρεάσουν τους ανθρώπους να τηρήσουν αυτήν ή εκείνη την πολιτική πτυχή.
Καθώς η Τεχνητή Νοημοσύνη προχωρά και εξαπλώνεται σε όλους τους τομείς της κοινωνίας, οι ανησυχίες σχετικά με την ηθική και ειρηνική χρήση της πρέπει να βρίσκονται στο επίκεντρο της συζήτησης.
Ο στόχος της τεχνητής νοημοσύνης θα πρέπει να είναι να ωθήσει την ανθρωπότητα στο επόμενο επίπεδό της, όχι να βοηθήσει τους εγκληματίες ή να χρησιμεύσει ως όπλο για την περαιτέρω αποσταθεροποίηση των ανθρώπινων σχέσεων.
Πτυχιούχος Ιστορίας και Τεχνολογίας Ανθρώπινου Δυναμικού. Παθιασμένος με τη συγγραφή, σήμερα ζει το όνειρο να εργαστεί επαγγελματικά ως Συγγραφέας Περιεχομένου Ιστού, γράφοντας άρθρα σε πολλές διαφορετικές θέσεις και μορφές.