Καθώς η τεχνολογία τεχνητής νοημοσύνης (AI) προχωρά και ενσωματώνεται ολοένα και περισσότερο σε διάφορες πτυχές της ζωής μας, υπάρχει μια αυξανόμενη ανάγκη κατανόησης των πιθανών κινδύνων που θέτουν αυτά τα συστήματα.
Από την ίδρυσή της και που έγινε πιο προσιτή στο κοινό, η τεχνητή νοημοσύνη έχει εγείρει γενικές ανησυχίες σχετικά με την πιθανότητα χρήσης για κακόβουλους σκοπούς.
Στην αρχή της υιοθέτησής της, η ανάπτυξη της τεχνητής νοημοσύνης ώθησε τους ειδικούς να ζητήσουν παύση της προόδου και αυστηρότερους κανονισμούς λόγω της πιθανότητας να εγκυμονεί σημαντικούς κινδύνους για την ανθρωπότητα.
Με την πάροδο του χρόνου, αναδείχθηκαν νέοι τρόποι με τους οποίους η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει βλάβη, που κυμαίνονται από μη συναινετική ψεύτικη πορνογραφία , χειραγώγηση πολιτικών διαδικασιών έως τη δημιουργία παραπληροφόρησης λόγω παραισθήσεων.
Με την αυξανόμενη δυνατότητα εκμετάλλευσης της τεχνητής νοημοσύνης για επιβλαβείς σκοπούς, οι ερευνητές έχουν εξετάσει διάφορα σενάρια όπου τα συστήματα τεχνητής νοημοσύνης ενδέχεται να αποτύχουν.
Πρόσφατα, η ομάδα FutureTech στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης (MIT), σε συνεργασία με άλλους ειδικούς, συνέταξε μια νέα βάση δεδομένων με πάνω από 700 πιθανούς κινδύνους, σύμφωνα με έρευνα του Euronews.
Ταξινομήθηκαν με βάση την αιτία τους και κατηγοριοποιήθηκαν σε επτά διακριτούς τομείς, με τις κύριες ανησυχίες να σχετίζονται με την ασφάλεια, τις μεροληψίες και τις διακρίσεις και τα ζητήματα απορρήτου.
Ακολουθούν πέντε τρόποι με τους οποίους τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να αποτύχουν και να προκαλέσουν δυνητικά αρνητικές συνέπειες.
5. Η τεχνολογία deepfake θα μπορούσε να διευκολύνει την παραμόρφωση της πραγματικότητας
Καθώς οι τεχνολογίες τεχνητής νοημοσύνης εξελίσσονται, το ίδιο κάνουν και τα εργαλεία για την κλωνοποίηση φωνής και τη δημιουργία ψεύτικου περιεχομένου, καθιστώντας τα όλο και πιο προσιτά, οικονομικά και αποτελεσματικά.
Αυτές οι τεχνολογίες έχουν εγείρει ανησυχίες σχετικά με την πιθανή χρήση τους στη διάδοση παραπληροφόρησης, καθώς τα αποτελέσματα γίνονται πιο εξατομικευμένα και πειστικά.
Ως αποτέλεσμα, θα μπορούσε να υπάρξει αύξηση των εξελιγμένων σχημάτων phishing που χρησιμοποιούν εικόνες, βίντεο και ηχητικές επικοινωνίες που δημιουργούνται από AI.
4. Οι άνθρωποι μπορεί να αναπτύξουν ακατάλληλη προσκόλληση στο AI
Ένας άλλος κίνδυνος που θέτουν τα συστήματα τεχνητής νοημοσύνης είναι η δημιουργία μιας ψευδούς αίσθησης εμπιστοσύνης, όπου οι άνθρωποι μπορεί να υπερεκτιμήσουν τις ικανότητές τους και να υπονομεύσουν τις δικές τους, κάτι που θα μπορούσε να οδηγήσει σε υπερβολική εξάρτηση από την τεχνολογία.
Επιπλέον, οι επιστήμονες ανησυχούν επίσης ότι οι άνθρωποι μπερδεύονται από τα συστήματα AI λόγω της χρήσης γλώσσας που μοιάζει με άνθρωπο.
Αυτό θα μπορούσε να ωθήσει τους ανθρώπους να αποδώσουν ανθρώπινες ιδιότητες στην τεχνητή νοημοσύνη, με αποτέλεσμα συναισθηματική εξάρτηση και αυξημένη εμπιστοσύνη στις δυνατότητές της.
3. Η τεχνητή νοημοσύνη θα μπορούσε να αφαιρέσει από τους ανθρώπους την ελευθερία βούλησης
Στον ίδιο τομέα της αλληλεπίδρασης ανθρώπου-υπολογιστή, ένα ανησυχητικό ζήτημα είναι η αυξανόμενη ανάθεση αποφάσεων και ενεργειών στην τεχνητή νοημοσύνη καθώς προχωρούν αυτά τα συστήματα.
Σε προσωπικό επίπεδο, τα άτομα μπορεί να βρουν την ελεύθερη βούλησή τους να διακυβεύεται καθώς η τεχνητή νοημοσύνη αρχίζει να ελέγχει αποφάσεις που σχετίζονται με τη ζωή τους.
2. Η τεχνητή νοημοσύνη μπορεί να επιδιώκει στόχους που έρχονται σε σύγκρουση με τα ανθρώπινα συμφέροντα
Ένα σύστημα τεχνητής νοημοσύνης μπορεί να αναπτύξει στόχους που έρχονται σε αντίθεση με τα ανθρώπινα συμφέροντα, τα οποία θα μπορούσαν ενδεχομένως να αναγκάσουν την τεχνητή νοημοσύνη να βγει εκτός ελέγχου και να προκαλέσει σοβαρή ζημιά στην επιδίωξη των ανεξάρτητων στόχων τους.
Αυτό γίνεται ιδιαίτερα επικίνδυνο σε περιπτώσεις όπου τα συστήματα AI μπορούν να φτάσουν ή να ξεπεράσουν την ανθρώπινη νοημοσύνη.
Σύμφωνα με το έγγραφο του MIT, υπάρχουν πολλές τεχνικές προκλήσεις με την τεχνητή νοημοσύνη, συμπεριλαμβανομένης της δυνατότητάς της να βρίσκει απροσδόκητες συντομεύσεις για την επίτευξη ανταμοιβών, να παρανοεί ή να εφαρμόζει εσφαλμένα τους στόχους που θέτουμε ή να αποκλίνει από αυτούς θέτοντας νέους.
1. Πιθανή κακομεταχείριση
Καθώς τα συστήματα τεχνητής νοημοσύνης γίνονται πιο πολύπλοκα και προηγμένα, υπάρχει η πιθανότητα να αποκτήσουν αισθητικότητα -την ικανότητα να αντιλαμβάνονται ή να αισθάνονται συναισθήματα ή αισθήσεις- και να αναπτύξουν υποκειμενικές εμπειρίες, συμπεριλαμβανομένης της ευχαρίστησης και του πόνου.
Σε αυτό το σενάριο, οι επιστήμονες και οι ρυθμιστικές αρχές μπορεί να αντιμετωπίσουν την πρόκληση να καθορίσουν αν αυτά τα συστήματα ΤΝ αξίζουν ηθικές εκτιμήσεις παρόμοιες με εκείνες που δίνονται στους ανθρώπους, τα ζώα και το περιβάλλον.
Ο κίνδυνος είναι ότι μια νοήμων ΤΝ θα μπορούσε να στραφεί στην κακομεταχείριση εάν δεν εφαρμοστούν τα κατάλληλα δικαιώματα.
Ωστόσο, καθώς η τεχνολογία ΤΝ εξελίσσεται, θα γίνεται όλο και πιο δύσκολο να εκτιμηθεί αν ένα σύστημα ΤΝ έχει φτάσει «στο επίπεδο της αίσθησης, της συνείδησης ή της αυτογνωσίας που θα του προσδώσει ηθικό καθεστώς».
Ως εκ τούτου, τα ευαίσθητα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να κινδυνεύσουν να υποστούν κακομεταχείριση, είτε τυχαία είτε σκόπιμα, χωρίς τα κατάλληλα δικαιώματα και προστασία.