Δεν είναι ξεκάθαρο στο δημοσίευμα της WSJ -που επικαλείται πρόσωπα με γνώση του θέματος- πώς ακριβώς χρησιμοποιήθηκε το μοντέλο ΑΙ της Anthropic στην επιχείρηση του αμερικανικού στρατού, που περιλάμβανε τον βομβαρδισμό αρκετών τοποθεσιών στο Καράκας τον περασμένο μήνα.
Η υπόθεση αναδεικνύει τη λεπτή ισορροπία που επιχειρούν να διατηρήσουν οι μεγάλες εταιρείες τεχνητής νοημοσύνης: Από τη μία επιδιώκουν συμβόλαια με τον στρατό και κρατικούς φορείς, από την άλλη θέτουν όρια στη χρήση των μοντέλων τους, ιδίως σε ζητήματα μαζικής επιτήρησης ή αυτόνομων οπλικών συστημάτων.
Οι κατευθυντήριες γραμμές χρήσης της Anthropic, πιο συγκεκριμένα, απαγορεύουν τη χρήση του Claude για τη διευκόλυνση βίας, την ανάπτυξη όπλων ή τη διεξαγωγή επιτήρησης.
Αντίστοιχες πληροφορίες για χρήση του Claude από τον αμερικανικό στρατό δημοσιεύει και το Axios, κάνοντας μάλιστα λόγο για χρήση του μοντέλου ΑΙ κατά τη διάρκεια της ενεργής φάσης της επιχείρησης, και όχι μόνο στο στάδιο της προετοιμασίας.
Αν και στο δημοσίευμα του Axios δεν διευκρινίζονται οι ακριβείς λειτουργίες του μοντέλου που αξιοποιήθηκαν, σημειώνεται ότι ο αμερικανικός στρατός το έχει αξιοποιήσει στο παρελθόν για ανάλυση δορυφορικών εικόνων και επεξεργασία πληροφοριών σε πραγματικό χρόνο -δυνατότητες κρίσιμες σε σύνθετα και ρευστά επιχειρησιακά περιβάλλοντα.
Η Anthropic διέψευσε ότι προχώρησε σε οποιαδήποτε παρέμβαση ή επικοινωνία που θα μπορούσε να επηρεάσει την επιχείρηση.
Οι συζητήσεις μεταξύ Πενταγώνου και εταιρειών τεχνητής νοημοσύνης συνεχίζονται, τόσο για την πρόσβαση σε διαβαθμισμένα συστήματα όσο και για ενδεχόμενη χαλάρωση των περιορισμών χρήσης, με το ερώτημα να παραμένει: Μέχρι πού μπορεί να φτάνει η εμπλοκή της τεχνητής νοημοσύνης σε στρατιωτικές επιχειρήσεις.

