• February 10, 2025
  • techgalaxy
  • 0

Η ραγδαία ανάπτυξη της τεχνητής νοημοσύνης (AI) δημιουργεί νέες προκλήσεις και κινδύνους, σύμφωνα με την πρώτη Διεθνή Έκθεση για την Ασφάλεια της Προηγμένης AI. Η μελέτη, που συντάχθηκε από 96 κορυφαίους επιστήμονες, προειδοποιεί ότι τα τελευταία επιτεύγματα στον τομέα της AI, όπως το μοντέλο R1 της κινεζικής DeepSeek και η νέα τεχνολογία reasoning του OpenAI (o3), θα μπορούσαν να αυξήσουν τον κίνδυνο κακόβουλης χρήσης.

Αυξανόμενοι κίνδυνοι λόγω ανταγωνισμού

Ο Yoshua Bengio, ένας από τους «πατέρες» της σύγχρονης AI, εκφράζει την ανησυχία του ότι η τεχνολογική πρόοδος σε εταιρείες όπως η DeepSeek μπορεί να εντείνει τον ανταγωνισμό σε βαθμό που να υποβαθμιστεί η προτεραιότητα στην ασφάλεια.

«Όταν μια εταιρεία νιώθει ότι έχει σαφές προβάδισμα, μπορεί να επιτρέψει στον εαυτό της να είναι πιο προσεκτική. Όμως, όταν δύο ανταγωνιστές βρίσκονται στο ίδιο επίπεδο, ο φόβος να μείνουν πίσω μπορεί να τους οδηγήσει σε επιτάχυνση, παραμερίζοντας θέματα ασφαλείας», δήλωσε ο Bengio.

Σύμφωνα με την έκθεση, οι AI αλγόριθμοι έχουν γίνει πιο ικανοί στην ανίχνευση κενών ασφαλείας σε λογισμικό, διευκολύνοντας πιθανές κυβερνοεπιθέσεις. Παράλληλα, η πρόοδος σε μοντέλα που παρέχουν τεχνικές οδηγίες για την κατασκευή βιολογικών και χημικών όπλων αυξάνει την ανησυχία για ενδεχόμενη χρήση τους από τρομοκρατικές οργανώσεις.

Το AI ως εργαλείο για βιολογικές και κυβερνοεπιθέσεις

Η έκθεση επισημαίνει ότι οι τελευταίες εξελίξεις στην AI μπορούν να προσφέρουν αναλυτικές οδηγίες για τη δημιουργία επικίνδυνων παθογόνων, ξεπερνώντας ακόμα και τις γνώσεις εξειδικευμένων επιστημόνων. Παράλληλα, καταγράφεται η ραγδαία αύξηση deepfake περιεχομένου, το οποίο χρησιμοποιείται σε οικονομικές απάτες, εκβιασμούς και παραπληροφόρηση.

Σημαντική είναι επίσης η ανησυχία για την παραβίαση μέτρων ασφαλείας σε AI μοντέλα. Τα κλειστού κώδικα μοντέλα (όπως της OpenAI) μπορούν να παραβιαστούν μέσω jailbreaks, ενώ τα ανοιχτού κώδικα μοντέλα, όπως το Llama της Meta, ενδέχεται να χρησιμοποιηθούν από κακόβουλους χρήστες για μη ελεγχόμενες εφαρμογές.

Το AI και η αυτονομία των συστημάτων

Ένας ακόμη τομέας που εξετάζει η μελέτη είναι η πιθανότητα δημιουργίας αυτόνομων AI πρακτόρων, ικανών να εκτελούν ανθρώπινες εργασίες χωρίς επίβλεψη. Ο Bengio προειδοποιεί πως τέτοιες εξελίξεις μπορεί να οδηγήσουν σε μεγαλύτερη ανεξαρτησία των AI μοντέλων, κάτι που θα μπορούσε να αξιοποιηθεί και από εγκληματικές οργανώσεις.

«Οι AI τεχνολογίες γίνονται όλο και πιο ικανές να σπάνε πολύπλοκες διαδικασίες σε μικρότερα, εκτελέσιμα βήματα για χρήστες που δεν έχουν τεχνικές γνώσεις. Αυτό σημαίνει ότι καθίστανται πιο επικίνδυνες στα λάθος χέρια», τόνισε ο επιστήμονας.

Προβληματισμός για το μέλλον της AI

Η 300 σελίδων έκθεση εξετάζει, μεταξύ άλλων, τις περιβαλλοντικές επιπτώσεις της AI, την παραβίαση προσωπικών δεδομένων, καθώς και τη μεταβολή της αγοράς εργασίας. Παρότι δεν προβλέπει με ακρίβεια το μέλλον της AI, επισημαίνει ότι το αποτέλεσμα θα εξαρτηθεί από τις αποφάσεις κυβερνήσεων και κοινωνιών:

«Το μέλλον της AI είναι αβέβαιο. Μπορεί να οδηγήσει σε εξαιρετικά θετικά ή εξαιρετικά αρνητικά αποτελέσματα. Δεν πρέπει να υιοθετήσουμε μια μοιρολατρική στάση. Οι αποφάσεις που θα πάρουμε σήμερα θα καθορίσουν την πορεία που θα ακολουθήσει η τεχνολογία», καταλήγει η έκθεση.

Η επόμενη Παγκόσμια Διάσκεψη για την Ασφάλεια της AI θα πραγματοποιηθεί στο Παρίσι στις 10-11 Φεβρουαρίου, όπου κυβερνήσεις και ειδικοί θα κληθούν να χαράξουν τη στρατηγική για την ασφαλή ανάπτυξη της τεχνητής νοημοσύνης.

Leave a Reply

Your email address will not be published. Required fields are marked *