Όσο το ChatGPT μπαίνει όλο και περισσότερο στην καθημερινότητά μας, πολλοί είναι εκείνοι που δεν διστάζουν να ανεβάσουν μια φωτογραφία, για να ρωτήσουν τι είναι αυτό το εξάνθημα που έβγαλαν στο χέρι ή πώς ονομάζεται ένα ωραίο λουλούδι που συνάντησαν στην απογευματινή τους βόλτα. Κάποιοι ζητούν από το chatbot να ερμηνεύσει τα αποτελέσματα των εξετάσεων αίματος που μόλις έκαναν ή να «καλλωπίσει» τη φωτογραφία τους για να την ανεβάσουν στο προφίλ τους στο LinkedIn. Άλλοι το κάνουν απλά για πλάκα: Ανεβάζουν μια selfie και ζητούν από το ChatGPT να τη μετατρέψει σε καρτούν ή το ρωτούν πώς θα μοιάζουν όταν γεράσουν.
Μοιάζει αθώο, όμως οι ειδικοί προειδοποιούν ότι κάθε φορά που ανεβάζουμε μια φωτογραφία στο ChatGPT, μοιραζόμαστε πολύ περισσότερα από όσα πιστεύουμε.
Το τι συμβαίνει στις φωτογραφίες αυτές όταν η αλληλεπίδρασή μας με το chatbot τελειώσει είναι κάθε άλλο παρά ξεκάθαρο. Διαφορετικές εταιρείες τεχνητής νοημοσύνης εφαρμόζουν διαφορετικές πολιτικές, ενώ υπάρχει πάντα ο κίνδυνος κάποιου τεχνικού σφάλματος αλλά και ο απρόβλεπτος παράγοντας του πώς θα εξελιχθεί η συγκεκριμένη τεχνολογία στο μέλλον.

Η πραγματικότητα είναι ότι οι περισσότεροι χρήστες της τεχνητής νοημοσύνης υποθέτουν ότι ισχύει ένα επίπεδο ιδιωτικότητας που ίσως τελικά να μην διασφαλίζεται.
«Είναι σημαντικό να μην ανεβάζετε φωτογραφίες τις οποίες δεν θα θέλατε να δει ποτέ κανένας», λέει μιλώντας στη Wall Street Journal ο Jacob Hoffman-Andrews, της οργάνωσης για τα ψηφιακά δικαιώματα Electronic Frontier Foundation.
Σύμφωνα με τον Hoffman-Andrews, οι χρήστες θα πρέπει να βλέπουν τα chatbots σαν ένα μέρος όπου οι φωτογραφίες τους θα συνεχίσουν να υπάρχουν, όπως το iCloud ή το Google Photos, αλλά με πρόσθετους κινδύνους. Ο κυριότερος από αυτούς τους κινδύνους είναι η ασφάλεια, αφού τα chatbots μπορεί να βρεθούν στο στόχαστρο χάκερς, που θα μπορούσαν να αποκτήσουν πρόσβαση σε λογαριασμούς χρηστών.
Όμως η ιδιωτικότητα του χρήστη απειλείται και από τα ίδια τα chatbots. Οι εταιρείες τεχνητής νοημοσύνης έχουν πρόσβαση στα δεδομένα και τις εικόνες των χρηστών. Για να διαπιστώσουν πόσο καλά δουλεύουν τα μοντέλα τους, αναθέτουν σε υπαλλήλους τους να εξετάζουν κάποιες συνομιλίες δειγματοληπτικά. Αυτό σημαίνει ότι ένας υπάλληλος της OpenAI, για παράδειγμα, μπορεί να δει την αλληλεπίδραση ενός χρήστη με το ChatGPT, ακόμα και εάν αυτός την έχει διαγράψει.
Ακόμα και μια απλή φωτογραφία μπορεί να αποδειχθεί επικίνδυνη για τον χρήστη, εάν πέσει σε λάθος χέρια. Οι φωτογραφίες περιέχουν metadata, όπως η τοποθεσία και ο χρόνος στον οποίο τραβήχτηκαν, ενώ μπορεί να αποκαλύπτουν ευαίσθητα δεδομένα, όπως οι αριθμοί τραπεζικών λογαριασμών ή καρτών, οι διευθύνσεις κατοικίας ή εργασίας, μια ιατρική διάγνωση κτλ.
Αυτό που δεν συνειδητοποιούν πολλοί χρήστες είναι ότι σε κάποιες περιπτώσεις, τα δεδομένα τους χρησιμοποιούνται για την εκπαίδευση των μοντέλων τεχνητής νοημοσύνης, ακόμα και εάν δεν έχουν δώσει ρητά την έγκρισή τους.
Και ενώ μία φωτογραφία από τις διακοπές σας ή μια άλλη από μία συνταγή μπορεί να χαθούν μέσα στον σωρό δεδομένων που λαμβάνουν τα chatbots, κάποιες φωτογραφίες διατρέχουν μεγαλύτερο κίνδυνο να χαραχθούν στη «μνήμη» των συστημάτων, τονίζει η Wall Street Journal. Επομένως, κινδυνεύουν να εμφανιστούν στα αποτελέσματα που δίνουν τα chatbots σε άλλους, με κάποια μορφή που μπορεί να είναι αναγνωρίσιμη.
Όπως εξηγεί ο Hoffman-Andrews, δύο κατηγορίες φωτογραφιών θα πρέπει να θεωρούνται οι πιο «επικίνδυνες»: Αυτές που εμφανίζονται χιλιάδες φορές online, όπως κάποιες που γίνονται memes, αλλά και κάποιες που ξεχωρίζουν από τον στατιστικό μέσο όρο, καθώς παρουσιάζουν πολύ διακριτά χαρακτηριστικά.
Για τον τυπικό χρήστη, μια πιστή αναπαραγωγή των προσωπικών φωτογραφιών του από τα συστήματα AI είναι απίθανη, λέει ο Hoffman-Andrews. Όμως όταν κάποιος «ανεβάζει» μια selfie υψηλής ευκρίνειας, τότε διατρέχει τον κίνδυνο το chatbot να κάνει αναπαραγωγή της εικόνας αυτής με τέτοιο τρόπο ώστε τα χαρακτηριστικά του να είναι αναγνωρίσιμα σε άλλους.
Και βέβαια, όποιες και εάν είναι οι πολιτικές των εταιρειών τεχνητής νοημοσύνης σήμερα, κανείς δεν γνωρίζει πώς θα εξελιχθεί το τοπίο μελλοντικά, καθώς η τεχνολογία αυτή κάνει άλματα. Μακροπρόθεσμα, υπάρχει ο κίνδυνος μια φωτογραφία που ανεβαίνει σήμερα, να χρησιμοποιηθεί στο μέλλον με τρόπους που θα διαφέρουν από την αρχική της χρήση, λέει στη WSJ η Sarah Myers West του AI Now Institute, ενός οργανισμού που μελετά την επίδραση της τεχνητής νοημοσύνης στην κοινωνία.
«Ό,τι και εάν ανεβάζετε, πρόκειται να έχει μια ζωή πολύ μεγαλύτερη από τη στιγμή στην οποία χρησιμοποιείτε το σύστημα», εξηγεί.