• February 10, 2025
  • techgalaxy
  • 0

Google Αναιρεί τη Δέσμευσή της για Ηθική AI – Εντείνεται η Συζήτηση για Στρατιωτική Χρήση

Η εποχή του “Don’t Be Evil” της Google ανήκει πλέον στο παρελθόν. Η εταιρεία ανακοίνωσε την επίσημη απόσυρση της δέσμευσής της να μην χρησιμοποιεί την τεχνητή νοημοσύνη (AI) για στρατιωτικά όπλα ή παρακολούθηση, σηματοδοτώντας μια σημαντική αλλαγή στρατηγικής.

Η Google είχε υιοθετήσει το 2018 έναν κώδικα δεοντολογίας, αντικαθιστώντας το “Don’t Be Evil” με το πιο αόριστο “Do The Right Thing”. Τώρα, οι αρχές της περί “Υπεύθυνης AI” δεν περιλαμβάνουν πλέον την υπόσχεση αποφυγής στρατιωτικών χρήσεων, γεγονός που προκαλεί ανησυχία για τις μελλοντικές κατευθύνσεις της εταιρείας αλλά και του συνόλου της Silicon Valley.

Ο επικεφαλής AI της Google, Demis Hassabis, προσπάθησε να πλαισιώσει την αλλαγή αυτή ως αναπόφευκτη εξέλιξη, αναφέροντας ότι η AI είναι πλέον τόσο διαδεδομένη όσο τα κινητά τηλέφωνα.

Αυτοματοποιημένος Πόλεμος: Ένας Επικίνδυνος Δρόμος

Η εγκατάλειψη ηθικών αρχών στην AI για πολεμική χρήση εγκυμονεί σοβαρούς κινδύνους. Η στρατιωτική αυτοματοποίηση μπορεί να καταστήσει τον πόλεμο πιο φονικό, επιταχύνοντας τις συγκρούσεις πέρα από τον έλεγχο των ανθρώπων. Αν τα αυτόνομα συστήματα αρχίσουν να λαμβάνουν αποφάσεις με μηχανική ταχύτητα, οι δυνατότητες για διπλωματία θα περιοριστούν δραματικά, ενώ ο κίνδυνος λαθών με θύματα αμάχους θα αυξηθεί.

Ο μεγαλύτερος φόβος των ειδικών είναι η πιθανή μετατόπιση της ευθύνης για την απόφαση αφαίρεσης ανθρώπινης ζωής από τον άνθρωπο στη μηχανή. Ο Hassabis, που το 2018 είχε υπογράψει την περίφημη δέσμευση της Google κατά των αυτόνομων όπλων, σήμερα φαίνεται να αλλάζει στάση.

Η Google και η Διαρκής Πίεση για Στρατιωτικές Συμβάσεις

Η Google έχει δεχθεί έντονες πιέσεις εδώ και χρόνια να εμπλακεί σε στρατιωτικά συμβόλαια. Το 2017, ο τότε αναπληρωτής υπουργός Άμυνας των ΗΠΑ, Patrick Shanahan, επισκέφθηκε την έδρα της Google, πιέζοντας για συνεργασία σε απόρρητα στρατιωτικά έργα.

Την ίδια χρονιά, η Google ανέπτυξε το Project Maven, ένα σύστημα AI για την ανάλυση δεδομένων drone, που θα μπορούσε να οδηγήσει σε αυτοματοποιημένη στόχευση. Αυτό προκάλεσε οργισμένες αντιδράσεις μεταξύ των υπαλλήλων, με 4.000 εξ αυτών να υπογράφουν διαμαρτυρία δηλώνοντας πως “Η Google δεν πρέπει να βρίσκεται στη βιομηχανία του πολέμου”. Περίπου 12 εργαζόμενοι παραιτήθηκαν, και η εταιρεία υποχώρησε, μη ανανεώνοντας το συμβόλαιο.

Ωστόσο, όπως παραδέχεται σήμερα ο William Fitzgerald, πρώην στέλεχος πολιτικής της Google, αυτό ήταν απλώς μια προσωρινή νίκη.

Η Silicon Valley Οδεύει προς τον Στρατιωτικό Τομέα

Η Google δεν είναι η μόνη εταιρεία που εγκαταλείπει τους ηθικούς φραγμούς της.

  • Η OpenAI συνεργάζεται με την Anduril Industries, μια εταιρεία στρατιωτικής τεχνολογίας, και προωθεί τα προϊόντα της στο Πεντάγωνο.
  • Η Anthropic, η οποία ισχυρίζεται ότι αναπτύσσει AI με προτεραιότητα την ασφάλεια, συνεργάστηκε με την Palantir (γνωστή για την κυβερνητική επιτήρηση) για να προσφέρει τις υπηρεσίες AI της στον στρατό.

Η Silicon Valley έχει πλέον εγκαταλείψει τις αρχικές της ηθικές αρχές και στρέφεται προς τη στρατιωτική αγορά, αναζητώντας συμβόλαια αξίας δισεκατομμυρίων.

Ρυθμιστικά Μέτρα: Υπάρχει Ακόμα Χρόνος για Δράση;

Η αλλαγή στάσης της Google θα πρέπει να αποτελέσει καμπανάκι κινδύνου για τις κυβερνήσεις. Οι ειδικοί προειδοποιούν πως αν δεν υπάρξουν νομικά δεσμευτικοί κανόνες, ο ρυθμός ανάπτυξης των στρατιωτικών AI εφαρμογών θα γίνει ανεξέλεγκτος.

Πιθανές λύσεις περιλαμβάνουν:

  • Απαγόρευση πλήρως αυτόνομων όπλων, που μπορούν να επιλέγουν στόχους χωρίς ανθρώπινη έγκριση.
  • Απαίτηση ανθρώπινης εποπτείας σε όλα τα στρατιωτικά συστήματα AI.
  • Δημιουργία διεθνούς οργανισμού για την επίβλεψη της στρατιωτικής AI, στα πρότυπα του Διεθνούς Οργανισμού Ατομικής Ενέργειας.

Ένας οργανισμός όπως το Future of Life Institute έχει προτείνει ένα σύστημα ασφαλείας αντίστοιχο με τα πυρηνικά όπλα, απαιτώντας αποδείξεις ότι η στρατιωτική AI είναι ελεγχόμενη πριν επιτραπεί η ανάπτυξή της.

Η Google ως Προειδοποίηση για το Μέλλον

Η αλλαγή πολιτικής της Google δείχνει πως καμία εταιρεία δεν είναι αλώβητη από τις πιέσεις της αγοράς και των κυβερνήσεων.

Το μότο “Don’t Be Evil” έχει εγκαταλειφθεί, και η τεχνητή νοημοσύνη μπαίνει σε μια εποχή όπου η ηθική υποχωρεί μπροστά στα κέρδη.

Ωστόσο, αν υπάρξει πολιτική βούληση, υπάρχει ακόμα περιθώριο να μπει φραγμός στην αυτόνομη στρατιωτική τεχνολογία, προτού αυτή ξεφύγει από κάθε έλεγχο.

Οι κυβερνήσεις που θα συναντηθούν στο Παρίσι στις 10-11 Φεβρουαρίου πρέπει να αντιμετωπίσουν αυτό το ζήτημα πριν είναι πολύ αργά.

Leave a Reply

Your email address will not be published. Required fields are marked *