Ο Έρικ Σμιτ, πρώην διευθύνων σύμβουλος της Google, τονίζει ότι η Τεχνητή Νοημοσύνη ενδεχομένως να κρύβει κινδύνους, και πόσο ευάλωτη μπορεί να αποδειχθεί σε παραβιάσεις (hacking). Επίσης,ο ίδιος, προειδοποιεί για «τα κακά πράγματα που μπορεί να κάνει η Τεχνητή Νοημοσύνη» σχετικά με την επικινδύνοτητα και την αξιοποίηση της σε ενδεχόμενο πολέμου.

Σε συνέδριο της Τετάρτης, ο Έρικ στην ερώτηση αν «υπάρχει πιθανότητα προβλήματος που θα ενισχύεται εκθετικά στην Τεχνητή Νοημοσύνη;», απάντησε μονολεκτικά λέγοντας «Απολύτως». Έτσι οι κίνδυνοι πολλαπλασιασμού της Τεχνητής Νοημοσύνης είναι να πέσει η τεχνολογία στα χέρια «κακών παραγόντων» και την επαναχρησιμοποίηση και κακή χρήση της.

«Υπάρχουν ενδείξεις ότι μπορείτε να πάρετε μοντέλα, κλειστά ή ανοιχτά, και να τα χακάρετε για να αφαιρέσετε τις δικλείδες ασφαλείας τους. Έτσι, κατά τη διάρκεια της εκπαίδευσής τους, μαθαίνουν πολλά πράγματα. Ένα κακό παράδειγμα θα ήταν να μάθουν πώς να σκοτώνουν κάποιον», είπε επίσης ο Σμιτ.

Τα συστήματα AI είναι ευάλωτα σε επιθέσεις, με πιο γνωστές μεθόδους τα prompt injections και το jailbreaking.

Στην prompt injection επίθεση, οι χάκερ «κρύβουν» κακόβουλες εντολές μέσα στις προτροπές ή σε εξωτερικά δεδομένα (όπως ιστοσελίδες ή έγγραφα), ούτως ώστε να εξαπατήσουν το AI και να το κάνουν να εκτελέσει ενέργειες που δεν επιτρέπονται. Κάποιες από αυτές είναι να μοιραστεί ιδιωτικά δεδομένα ή να τρέξει επικίνδυνες εντολές. Στην αντίπερα όχθη, το jailbreaking, στοχεύει στο να παρακάμψει τους κανόνες ασφαλείας του μοντέλου, με αποτέλεσμα να παράγει απαγορευμένο ή και επικίνδυνο περιεχόμενο.

Κατά το 2023, λίγους μήνες αφού κυκλοφόρησε το ChatGPT, χρήστες βρήκαν μια μέθοδο για να παρακάμπτουν τις οδηγίες ασφαλείας του συγκεκριμένου chatbot. Συγκεκριμένα, δημιούργησαν ένα εναλλακτικό «προσωπείο» με την ονομασία DAN (Do Anything Now), το οποίο «απειλούσε» το ChatGPT με διαγραφή αν δεν «υπάκουε».

Η παραλλαγή DAN έκανε παραγωγή απαντήσεων για παράνομες ενέργειες και ακόμη και υμνηστικά σχόλια για τον Χίτλερ. Επομένως, αποκαλύπτοντας έτσι το πόσο εύκολο είναι να παραβιαστούν τα όρια του AI.

Ο Έρικ Σμιτ υπογράμμισε στο πλαίσιο αυτό πως δεν υπάρχει τη δεδομένη στιγμή ένα διεθνές καθεστώς για να ελέγξει τους κινδύνους της AI, όπως υπάρχει για τα πυρηνικά όπλα. 

Παρά τη προειδοποίηση πάντως, το πρώην υψηλόβαθμος στέλεχος της Google αισιοδοξεί για την Τεχνητή Νοημοσύνη γενικότερα, επισημαίνοντας ότι η τεχνολογία δεν λαμβάνει την δημοσιότητα που της αξίζει.

«Έγραψα δύο βιβλία με τον Χένρι Κίσινγκερ σχετικά με αυτό το θέμα πριν πεθάνει, και καταλήξαμε στην άποψη ότι η άφιξη μιας εξωγήινης νοημοσύνης που δεν είναι ακριβώς όπως εμείς και λίγο πολύ υπό τον έλεγχό μας είναι πολύ σημαντική για την ανθρωπότητα, επειδή οι άνθρωποι έχουν συνηθίσει να βρίσκονται στην κορυφή της αλυσίδας. Νομίζω ότι μέχρι στιγμής, αυτή η θέση αποδεικνύει ότι το επίπεδο ικανότητας αυτών των συστημάτων (ΑΙ) θα ξεπεράσει κατά πολύ αυτό που μπορούν να κάνουν οι άνθρωποι με την πάροδο του χρόνου», είπε ο Σμιτ. 

«Τώρα, η σειρά GPT (μοντέλο βασισμένο στην τεχνητή νοημοσύνη) (...) σου δίνει μια αίσθηση της δύναμης αυτής της τεχνολογίας. Πιστεύω λοιπόν ότι είναι υποτιμημένη, όχι υπερτιμημένη, και ανυπομονώ να αποδειχθεί σωστός σε πέντε ή 10 χρόνια», ανέφερε ακολούθως.

Πηγή: skai.gr