Οι ταξιδιώτες αξιοποιούν τη δεδομένη στιγμή ολοένα και περισσότερο τα εργαλεία τεχνητής νοημοσύνης, όπως το ChatGPT, για να πάρουν ιδέες για τα ταξίδια τους. Παρόλα αυτά, μερικοί από αυτούς, εν τέλει, καταλήγουν σε προορισμούς που δεν είναι υπαρκτοί στον παγκόσμιο χάρτη...
Ο Μιγκέλ Άνγκελ Γκονζόρα Μέζα, ο οποίος είναι ιδιοκτήτης ταξιδιωτικού πρακτορείου, ενώ βρισκόταν σε μια αγροτική πόλη του Περού και ήταν έτοιμος για πεζοπορία στις Άνδεις της Νότιας Αμερικής, όταν άκουσε μια περίεργη συνομιλία: Δύο τουρίστες συζητούσαν για τα σχέδιά τους να κάνουν πεζοπορία μόνοι τους στις οροσειρές μέχρι το «Ιερό Φαράγγι του Humantay».
Βέβαια, το συγκεκριμένο μέρος δεν υπήρχε στη χώρα και οι τουρίστες έδωσαν χρήματα για να μεταβούν σε έναν ανύπαρκτο προορισμό. Αυτό το φαινομενικά αθώο λάθος όμως θα μπορούσε να αποδειχτεί και επικίνδυνο, αφού όπως δήλωσε, η παραπληροφόρηση θα μπορούσε να τους οδηγήσει σε ριψοκίνδυνα μονοπάτια, τα οποία βρίσκονταν σε μεγάλο υψόμετρο, ενώ δεν υπήρχε οξυγόνο, οδηγός, αλλά και σήμα στο κινητό.
Κατά το BBC, σε βάθος λίγων χρόνων, εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT, το Microsoft Copilot, αλλά και το Google Gemini έχουν αποδειχθεί ως αναπόσπαστο κομμάτι σχεδιασμού ταξιδιών για ένα τεράστιο αριθμό ανθρώπων. Επιπρόσθετα, σύμφωνα με έρευνα, το 30% των ταξιδιωτών σε διεθνή επίπεδο χρησιμοποιεί πλέον εργαλεία τεχνητής νοημοσύνης και ειδικούς ιστότοπους τεχνητής νοημοσύνης για ταξίδια, όπως το Wonderplan και το Layla, για να οργανώσει τις εξορμήσεις του.
Παρά το γεγονός ότι τα συγκεκριμένα προγράμματα μπορούν να δώσουν σημαντικές ταξιδιωτικές συμβουλές όταν λειτουργούν σωστά, μπορούν επίσης να οδηγήσουν τους ανθρώπους σε κάποιες απογοητευτικές ή ακόμα και επικίνδυνες καταστάσεις.
Επομένως, αυτό αποδεικνυεί ότι κάποιοι ταξιδιώτες όταν φτάνουν στον προορισμό τους και διαπιστώνουν πως τους έχουν δοθεί λανθασμένες πληροφορίες ή ότι έχουν οδηγηθεί σε ένα μέρος που έχει δημιουργηθεί με τη φαντασία ενός ρομπότ.
Η Ντάνα Γιάο και ο σύζυγός της το βίωσαν από πρώτο χέρι. Αξιοποίσαν το εργαλείο ChatGPT για να οργανώσουν μια ρομαντική πεζοπορία στην κορυφή Misen, το οποίο βρίσκεται στο ιαπωνικό νησί Itsukushima. Αφού εξερεύνησαν την πόλη Miyajima χωρίς κάποιο ζήτημα, ξεκίνησαν στις 15:00 για να ανέβουν το Misen, ούτως ώστε να προλάβουν το ηλιοβασίλεμα, όπως τους είχε υποδείξει προηγουμένως το ChatGPT.
Όταν όμως προσπάθησαν να κατέβουν το βουνό, το τελεφερίκ δεν ήταν σε ισχύ, ενώ το ChatGPT τους είχε παραθέσει άλλες πληροφορίες. Έτσι έμειναν στην κορυφή του βουνού χωρίς να υπάρχει η δυνατότητα να επιστρέψουν.
Το 2024, σε άλλο περιστατικό, ο ταξιδιωτικός πράκτορας τεχνητής νοημοσύνης Layla πληροφόρησε χρήστες πως υπήρχε πύργος του Άιφελ στο Πεκίνο, ενώ σε έναν Βρετανό είχε προτείνει να κάνει μαραθώνιο σε διαδρομή στη βόρεια Ιταλία που δεν γινόταν.
Σύμφωνα με άλλη έρευνα η οποία διενεργήθηκε το 2024, το 37% των ερωτηθέντων που χρησιμοποίησαν τεχνητή νοημοσύνη για να σχεδιάσουν τα ταξίδια τους ανέφεραν ότι δεν μπορούσε να τους παρέχει αρκετές πληροφορίες, ενώ σχεδόν το 33% δήλωσε ότι οι προτάσεις που τους έδωσε περιείχαν ψευδείς πληροφορίες.
Τα πιο πάνω ζητήματα προκύπτουν από τον τρόπο με τον οποίο η τεχνητή νοημοσύνη δημιουργεί τις απαντήσεις της.
Όπως εξηγεί ο Ραγίντ Γκάνι, διακεκριμένος καθηγητής μηχανικής μάθησης στο Πανεπιστήμιο Carnegie Mellon, προγράμματα όπως το ChatGPT μπορεί να φαίνεται ότι δίνουν λογικές και χρήσιμες συμβουλές. Αλλά τρόπος με τον οποίο λαμβάνουν αυτές τις πληροφορίες δείχνει ότι δεν μπορούμε να είμαστε ποτέ απόλυτα σίγουροι.
«Δεν ξέρει τη διαφορά μεταξύ ταξιδιωτικών συμβουλών, οδηγιών ή συνταγών», λέει ο ειδικός. «Ξέρει μόνο λέξεις. Έτσι, συνεχίζει να γράφει λέξεις που ακούγονται ρεαλιστικές», σημειώνει.
Πηγή: skai.gr