Τεχνητή νοημοσύνη: Kέρδος με κάθε κόστος;
Δεν περνάει σχεδόν κανένας μήνας χωρίς κάποιος μεγιστάνας της τεχνητής νοημοσύνης να προειδοποιεί ότι η τεχνολογία αυτή αποτελεί υπαρξιακή απειλή για την ανθρωπότητα. Πολλές από αυτές τις προειδοποιήσεις μπορεί να είναι ασαφείς ή αφελείς. Αλλες μπορεί να είναι ιδιοτελείς. Ωστόσο, ορισμένες προειδοποιήσεις αξίζει να ληφθούν σοβαρά υπόψη.
Την περασμένη εβδομάδα ορισμένοι αξιόλογοι ερευνητές ασφάλειας της τεχνητής νοημοσύνης παραιτήθηκαν, προειδοποιώντας ότι οι εταιρείες που κυνηγούν κέρδη παραμερίζουν την ασφάλεια και προωθούν επικίνδυνα προϊόντα. Βραχυπρόθεσμα, αυτό υποδηλώνει μια ταχεία «ενσωμάτωση» στην επιδίωξη βραχυπρόθεσμων εσόδων.
Η επιλογή χρήσης chatbots ως κύριας διεπαφής χρηστών με την τεχνητή νοημοσύνη ήταν πρωτίστως εμπορική. Οι συνομιλίες αυτές προωθούν τη βαθύτερη αλληλεπίδραση των χρηστών. Η ερευνήτρια του OpenAI, Zoë Hitzig, προειδοποίησε ότι η εισαγωγή διαφημίσεων σε αυτή τη δυναμική ενέχει τον κίνδυνο χειραγώγησης. Το OpenAI λέει ότι οι διαφημίσεις δεν επηρεάζουν τις απαντήσεις του ChatGPT. Ωστόσο, όπως και με τα μέσα κοινωνικής δικτύωσης, ενδέχεται να γίνουν λιγότερο ορατά και πιο ψυχολογικά στοχευμένες.
Η OpenAI απέλυσε πρόσφατα τον εκτελεστικό της διευθυντή Ryan Beiermeister για «σεξουαλικές διακρίσεις». Αρκετές αναφορές κάνουν λόγο ότι είχε αντιταχθεί σθεναρά στην κυκλοφορία περιεχομένου για ενηλίκους. Ο τρόπος με τον οποίο τα εργαλεία τεχνητής νοημοσύνης Grok του Ιλον Μασκ παρέμειναν ενεργά για αρκετό καιρό ώστε να προκαλέσουν κακή χρήση εγείρει ερωτήματα σχετικά με τη δημιουργία εσόδων από επιβλαβείς πρακτικές.
Δεδομένου ότι η φρενήρης επιδίωξη του κέρδους τείνει να εισάγει ακαταμάχητη προκατάληψη σε κάθε ανθρώπινο σύστημα που έχουμε, το ίδιο θα ισχύει και για την τεχνητή νοημοσύνη.
Αυτό δεν είναι πρόβλημα εντός μίας μόνο εταιρείας. Μια πιο αόριστη επιστολή παραίτησης από τον ερευνητή ασφάλειας της Anthropic, Mrinank Sharma, προειδοποίησε για έναν «κόσμο σε κίνδυνο» και ότι είχε «επανειλημμένα δει πόσο δύσκολο είναι να αφήσουμε πραγματικά τις αξίες μας να διέπουν τις πράξεις μας». Η OpenAI ήταν κάποτε φαινομενικά εξ ολοκλήρου μη κερδοσκοπική. Αφού άρχισε να γίνεται εμπορική από το 2019, η Anthropic παρουσιάστηκε ως η ασφαλέστερη, πιο προσεκτική εναλλακτική λύση. Η αποχώρηση του κ. Sharma υποδηλώνει ότι ακόμη και οι εταιρείες που ιδρύθηκαν με αυτοσυγκράτηση αγωνίζονται να αντισταθούν στην ίδια έλξη των κερδών.
Η αιτία αυτής της αναδιάταξης είναι σαφής. Οι εταιρείες καταναλώνουν επενδυτικό κεφάλαιο με ιστορικούς ρυθμούς, τα έσοδά τους δεν αυξάνονται αρκετά γρήγορα και, παρά τα εντυπωσιακά τεχνικά αποτελέσματα, δεν είναι ακόμη σαφές τι μπορεί να «κάνει» η τεχνητή νοημοσύνη για να δημιουργήσει κέρδη. Η χρηματοπιστωτική κρίση του 2008 έδειξε τι συμβαίνει όταν τα βασικά συστήματα καθοδηγούνται από βραχυπρόθεσμες ανάγκες και αδύναμη εποπτεία.
Για την επίλυση αυτού του προβλήματος απαιτείται ισχυρή κρατική εποπτεία. Η πρόσφατη «Διεθνής Εκθεση για την Ασφάλεια της Τεχνητής Νοημοσύνης 2026» προσέφερε μια νηφάλια αξιολόγηση των πραγματικών κινδύνων – από τον ελαττωματικό αυτοματισμό έως την παραπληροφόρηση – και ένα σαφές σχέδιο για την εποπτεία. Ωστόσο, παρά την υποστήριξή της από 60 χώρες, οι κυβερνήσεις των ΗΠΑ και του Ηνωμένου Βασιλείου αρνήθηκαν να την υπογράψουν. Αυτό είναι ένα ανησυχητικό σημάδι ότι επιλέγουν να προστατεύσουν τον κλάδο αντί να τον ελέγξουν.
