The AI Act and a (sorely missing!) right to AI individualization; Why are we building Skynet?

Published in the European Law Blog, 16.07.2024

The industry has tricked us; Scientists and regulators have failed us. AI is developing not individually (as humans become individuals) but collectively. A huge collective hive to collect, store and process all of humanity’s information; a single entity (or a few, interoperability as an open issue today as their operation itself) to process all our questions, wishes and knowledge. The AI Act that has just been released ratifies, for the moment at least, this approach: EU’s ambitious attempt to regulate AI deals with it as if it was simply a phenomenon in need of better organisation, without granting any rights (or participation, thus a voice) to individuals. This is not only a missed opportunity but also a potentially risky approach; while we may not be building Skynet as such, we are accepting an industry-imposed shortcut that will ultimately hurt individual rights, if not individual development per se.

This mode of AI development has been a result of short-termism: an, immediate, need to get results quickly and to make a ‘fast buck’. Unlimited (and unregulated, save for the GDPR) access to whatever information is available for processing obviously speeds things up – and keeps costs down. Data-hungry AI models learn faster through access to as-large-as-possible repositories of information; then, improvements can be fed into next-generation AI models, that are even more data-hungry than their predecessors. The cycle can be virtuous or vicious, depending how you see it.

In 1984 iconic film The Terminator humans fought against Skynet, “an artificial neural network-based conscious group mind and artificial general superintelligence system”. Skynet was a single, collective intelligence (“group mind”) that quickly learned everything that humans knew and controlled all of the machines. Machines (including, Terminators) did not develop independently, but as units within a hive, answering to and controlled by a single, omnipresent and omnipotent entity – Skynet.

Isn’t this exactly what we are doing today? Are we not happy to let Siri, Alexa, ChatGPT (or whatever other AI entity the industry and scientists launch) process as a single entity, a single other-party with which each one of us interacts, all of our information through our daily queries and interactions with them? Are we not also happy to let them control, using that same information, all of our smart devices at home or at the workplace? Are we not, voluntarily, building Skynet?

But, I do not want to be talking to (everybody’s) Siri!

All our AI end-user software (or otherwise automated software assistants) is designed and operates as a single, global entity. I may be interacting with Siri on my iPhone (or Google Assistant, Alexa, Cortana etc.), asking it to carry out various tasks for me, but the same do millions of other people on the planet. In essence, Siri is a single entity interacting simultaneously with each one of us. It is learning from us and with us. Crucially, however, the improvement from the learning process goes to the one, global, Siri. In other words, each one of us is assisted individually through our interaction with Siri, but Siri develops and improves itself as a one and only entity, globally.

The same is the case today with any other AI-powered or AI-aspiring entity. ChatGPT answers any question or request that pops in one’s mind, however this interaction assists each one of us individually but develops ChatGPT itself globally, as a single entity. Google Maps drives us (more or less) safely home but at the same time it catalogues how all of us are able to move on the planet. Amazon offers us suggestions on books or items we may like to buy, and Spotify on music we may like to listen to, but at the same time their algorithms learn what humans need or how they appreciate art.

Basically, if one wanted to trace this development back, they would come across the moment that software transformed from a product to a service. In the beginning, before prevalence of the internet, software was a product: one bought it off-the-shelf, installed it on their computer and used it (subject to the occasional update) without having anything to do with the manufacturer. However, when each and every computer and computing device on the planet became interconnected, the software industry, on the pretence of automated updates and improved user experience, found an excellent way to increase its revenue: software became not a product but a service, payable in monthly instalments that apparently will never stop. Accordingly, in order to (lawfully) remain a service, software needed to remain constantly connected to its manufacturer/provider, feeding it at all times with details on our use and other preferences.

No user was ever asked about the “software-as-a-service” transformation (governments, particularly from tax-havens, happily obliged, offering tax residencies for such services against competitive taxation). Similarly, no user has been asked today whether they want to interact with (everybody’s) Siri. One AI-entity to interact with all of humanity is a fundamentally flawed assumption. Humans  act individually, each one at their own initiative, not as units within a hive. The tools they invent to assist them they use individually. Of course it is true that each one’s personal self-improvement when added up within our respective societies leads to overall progress, however, still, humanity’s progress is achieved individually, independently and in unknown and frequently surprising directions.

On the contrary, scientists and the industry are offering us today a single tool  (or, in any case, very few, interoperability among them still an open issue) to be used by each one of us in a recordable and processable (by that tool, not by us!) manner. This is unprecedented in humanity’s history. The only entity so far to, in its singularity, interact with each one of us separately, to be assumed omnipresent and omnipotent, is God.

The AI Act: A half-baked GDPR mimesis phenomenon

The biggest shortcoming of the recently published AI Act, and EU’s approach to AI overall, is that it deals with it only as a technology that needs, better, organisation. The EU tries to map and catalogue AI, and then to apply a risk-based approach to reduce its negative effects (while, hopefully, still allowing it to, lawfully, develop in regulatory sandboxes etc.). To this end the EU employs organisational and technical measures to deal with AI, complete with a bureaucratic mechanism to monitor and apply them in practice.

The similarity of this approach to the GDPR’s approach, or a GDPR-mimesis phenomenon, has already been identified. The problem is that, even under this overly protective and least-imaginative approach, the AI Act is only a half-baked GDPR mimesis example. This is because the AI Act fails to follow the GDPR’s fundamental policy option to include the users (data subjects) in its scope. On the contrary, the AI Act leaves users out.

The GDPR’s policy option to include the users may appear self-evident now, in 2024, however it is anything but. Back in the 1970s, when the first data protection laws were being drafted in Europe, the pendulum could have swinged towards any direction: legislators may well have chosen to deal with personal data processing as a technology only in need of better organisation, too. They could well have chosen to introduce only high-level principles on how controllers should process personal data. However, importantly, they did not. They found a way to include individuals, to grant them rights, to empower them. They did not leave personal data processing only to organisations and bureaucrats to manage.

This is something that the AI Act is sorely missing. Even combined with the AI Liability Directive, still it leaves users out of the AI scene. This is a huge omission: users need to be able to participate, to actively use and take advantage of AI, and to be afforded with the means to protect themselves from it, if needed.

In urgent need: A (people’s) right to AI individualisation

It is this need for users to participate in the AI scene that a right to AI individualisation would serve. A right to AI individualisation would allow users to use AI in the way each one sees fit, deliberately, unmonitored and unobserved by the AI manufacturer. The link with the provider, that today is always-on and feeds all of our innermost thoughts, wishes and ideas back to a collective hive, needs to be broken. In other words, we only need the technology, the algorithm alone, to train it and use it ourselves without anybody’s interference. This is not a matter simply of individualisation of the experience on the UX end, but, basically, on the backend.-The ‘connection with the server’, that has been forced upon us through the Software-as-a-Service transformation, needs to be severed and control, of its own, personalised AI, should be given back to the user. In other words,  We need to be afforded the right to move from (everybody’s) Siri to each one’s Maria, Tom, or R2-D2.

Arguably, the right to data protection serves this need already, granting us control over processing of our personal data by third parties. However, the right to data protection involves  the, known, nuances of, for example, various legal bases permitting the processing anyway or technical-feasibility limitations of rights afforded to individuals. After all, it is under this existing regulatory model, that remains in effect, that today’s model of AI development was allowed to take place anyway. A specific, explicitly spelled-out right to AI individualisation would address exactly that; closing existing loopholes that the industry was able to take advantage of, while placing users in the centre.

A host of other considerations would follow the introduction of such a right. Principles such as data portability (art. 20 of the GDPR), interoperability (art. 6 of EU Directive 2009/24/EC) or, even, a right to be forgotten (art. 17 of the GDPR) would have to be revisited. Basically, our whole perspective would be overturned: users would be transformed from passive recipients to active co-creators, and AI itself from a single-entity monolith to a billion individualised versions, same as the number of the users it serves.

As such, a right to AI individualisation would need to be embedded in systems’ design, similar to privacy by-design and by-default requirements. This is a trend increasingly noticeable in contemporary law-making: while digital technologies permeate our lives, legislators find that sometimes it is not enough to regulate the end-result, meaning human behaviour, but also the tools or methods that led to it, meaning software. Soon, software development and software systems’ architecture will have to pay close attention to (if not be dictated by) a large array of legal requirements, found in personal data protection, cybersecurity, online platforms and other fields of law. In essence, it would appear that, contrary to an older belief that code is law, at the end of the day (it is) law (that) makes code.

Είναι το software, η μουσική, τα βιβλία μας προϊόν ή υπηρεσία;

Δημοσιεύθηκε στο 2045.gr, 10.06.2024

Ολόκληρη η βιομηχανία σήμερα μετατρέπει τα προϊόντα της σε υπηρεσία. Από τη μουσική και τις ταινίες που ισχύει ήδη, μέχρι τα αυτοκίνητα -και ποιος ξέρει τι άλλο- στο μέλλον.

Αφορμή γι αυτό το κείμενο στάθηκε ένα άλλο, πιο νομικό, για την ανάγκη να αποκτήσουμε ένα δικαίωμα στην εξατομίκευση της Τεχνητής Νοημοσύνης (AI individualization) – πιο πολλά γι αυτό το θέμα σύντομα, όμως εδώ σχολιάζω κάτι διαφορετικό: μια τάση που ίσως για πάρα πολύ καιρό έχει μείνει ασχολίαστη, σε βαθμό που οι επόμενες γενιές θα την παίρνουν ως δεδομένο. Πρόκειται για την παροχή των πάντων, ακόμα και των πιο «υλικών» αγαθών, ως υπηρεσία. Με άλλα λόγια, για την «από-προϊοντοποίηση» των πάντων γύρω μας, κάτι που έκανε εφικτό η ψηφιακή τεχνολογία.

Η περίπτωση είναι απλή, αν κανείς (κάπως μεγαλύτερης ηλικίας…) την σκεφτεί έστω και για ένα λεπτό. Πριν λίγα χρόνια η μουσική μας «καθόταν» στο σαλόνι ή στο υπνοδωμάτιό μας, με την έννοια ότι η συλλογή μας από βινύλια ή CD ήταν αγορασμένη ως προϊόν, δική μας να την κάνουμε ό,τι θέλουμε για όσο χρόνο θέλουμε. Το ίδιο και οι ταινίες μας: είτε αγορασμένες (σε βιντεοκασέτα ή σε DVD) είτε νοικιασμένες για λίγες μέρες, σε κάθε περίπτωση πάντως σαν απτό, υλικό προϊόν. Ομοίως και με τα βιβλία μας: τα αγοράζαμε από το βιβλιοπωλείο σε χαρτί, δικά μας να τα διαβάσουμε, δανείσουμε ή σημειώσουμε πάνω τους όσο θέλουμε.

Τίποτα από αυτά δεν ισχύει σήμερα. Η μουσική μας και οι ταινίες μας δεν μας ανήκουν πια σαν προϊόντα, παρά μόνο πληρώνουμε συνδρομή πρόσβασης σε υπηρεσία διάθεσής τους online. Το ίδιο και με τα βιβλία: τα «αγοράζουμε» σε ψηφιακή μορφή από online βιβλιοπωλεία όμως είναι πολύ περιορισμένες οι χρήσεις σε αυτά που μας επιτρέπονται, και πολύ σπάνια μας ανήκουν πραγματικά για πάντα.

Με άλλα λόγια, το (πολιτιστικό) προϊόν έγινε πλέον (ψηφιακή) υπηρεσία.

Το software ως υπηρεσία

Αυτή είναι μια τάση που ξεκίνησε από το software. Όπως θυμούνται οι παλιότεροι, στην αρχή το software έφτανε σε εμάς σε κουτιά (αρχικά με δισκέτες, μετά με άλλα ψηφιακά μέσα) που «κάθονταν» σε καταστήματα. Κάθε (νόμιμος) χρήστης έμπαινε στο κατάστημα, τα κατέβαζε από το ράφι, τα πήγαινε στον χώρο του του και τα εγκαθιστούσε στον υπολογιστή του, δικά του για πάντα (έστω, για όσο καιρό ήταν συμβατά με το λειτουργικό σύστημα, το hardware κοκ.). Αυτό όμως άλλαξε, με ξαφνικό και βίαιο τρόπο, με το ίντερνετ: μόλις κάθε υπολογιστής μας συνδέθηκε online οι εταιρείες πληροφορικής βρήκαν έναν καταπληκτικό νέο τρόπο να αυξήσουν τα έσοδά τους, να βελτιστοποιήσουν τους φόρους τους και να εξασφαλίσουν την συνεχιζόμενη ύπαρξή τους για πάντα: το λογισμικό-ως-υπηρεσία / software-as-a-service (SaaS).

To SaaS είναι το καταπληκτικότερο business model όλων των εποχών για τη βιομηχανία πληροφορικής και ταυτόχρονα ένα ανεπανόρθωτο πλήγμα τόσο για τον χρήστη όσο και για τις κυβερνήσεις/κράτη. Με μια απλή κίνηση οι εταιρείες πληροφορικής αφαίρεσαν από τον χρήστη έλεγχο τόσο του λογισμικού του (που πλέον ελέγχεται online, από τις ίδιες) όσο και του υπολογιστή του (που παραμένει μόνιμα συνδεδεμένος με αυτές) αλλά και των χρημάτων του, αφού εκεί που κάποτε πλήρωνε ένα ποσό για απεριόριστη χρήση τώρα πληρώνει συνδρομή με τον μήνα.

Ταυτόχρονα το SaaS αφαίρεσε από τις κυβερνήσεις των κρατών φορολογικά έσοδα εκατομμυρίων: αφού το software έγινε υπηρεσία, μπορεί να παρέχεται (θεωρητικά!) εξ αποστάσεως. Με άλλα λόγια, εκεί που για κάθε Windows και Office που πουλούσε σε Έλληνες χρήστες από ελληνικό κατάστημα η Microsoft πλήρωνε στο ελληνικό κράτος φόρο, τώρα δεν πληρώνει ούτε ένα ευρώ, αφού η τιμολόγηση της υπηρεσίας γίνεται από την Ιρλανδία – όπως ακριβώς συμβαίνει με όλες, μα όλες, τις εταιρείες πληροφορικής σήμερα. Τα μαθηματικά της απώλειας εισοδήματος για κάθε μια χώρα του πλανήτη (και συνεπώς, για τους πολίτες τους, αφού οι φόροι θα επέστρεφαν σε αυτούς σε κρατική υπηρεσία) είναι εύκολο να γίνουν από καθέναν.

Η παραπάνω αλλαγή, παρότι βίαιη, ήταν, όπως είδαμε, σταδιακή: στην αρχή το λογισμικό έγινε υπηρεσία, όταν το ίντερνετ σύνδεσε μεταξύ τους όλους τους υπολογιστές του πλανήτη. Στη συνέχεια αυτό έγινε με τη μουσική, όταν το internet bandwidth το επέτρεψε και η μουσική βιομηχανία (εκούσα άκουσα) το ανέχτηκε. Πριν λίγα χρόνια αυτό συνεχίστηκε με τις ταινίες, επίσης όταν το internet bandwidth αυξήθηκε κι άλλο και η αντίστοιχη βιομηχανία υπέκυψε. Τώρα, σιγά-σιγά συμβαίνει με τα βιβλία. Φαντάζομαι ότι επόμενος στόχος θα είναι ο Τύπος.

Γιατί ανεχτήκαμε αυτή την κατάσταση; Πιθανότατα επειδή κανείς δεν ασχολήθηκε – αν δεν μας βόλεψε κιόλας. Ο μέσος άνθρωπος είδε ξαφνικά ότι από τα 100-200 βινύλια ή CD που είχε στο σπίτι του ξαφνικά, με μηνιαίο κόστος αγοράς ενός μόνο CD, απέκτησε πρόσβαση σε ολόκληρη τη μουσική βιβλιοθήκη του κόσμου. Το ίδιο και με τις ταινίες. Γιατί, επομένως, να παραπονεθεί;

Οι κυβερνήσεις, από τη μεριά τους, υποθέτω ότι πείστηκαν ότι αυτός είναι ο μόνος τρόπος αποτελεσματικής καταπολέμησης της πειρατείας (λογισμικού, μουσικής, ταινιών κοκ.) – ενδεχομένως, πήραν και μερικές δωρεάν άδειες χρήσης για το Δημόσιό τους σε αντάλλαγμα (το ψηφιακό αντίστοιχο με τις «χάντρες και τα καθρεφτάκια» που έδιναν οι αποικιοκράτες στους ιθαγενείς).

Φυσικά, η τάση αυτή δεν περιορίζεται στα πολιτισμικά προϊόντα. Ολόκληρη η βιομηχανία σήμερα προσπαθεί να μας πείσει ότι τα προϊόντα της (κλιματιστικά, καφετιέρες, αυτοκίνητα, τηλεοράσεις κλπ.) δεν είναι προϊόντα αλλά end-points σε υπηρεσία – δικαιολογώντας, φυσικά, μηνιαίες συνδρομές και μια μόνιμη, πλέον, σχέση με τον κατασκευαστή. Κάπως έτσι, άλλωστε, εξηγείται (με την έννοια ότι κάποιος πληρώνει για τη συνεχιζόμενη ανάπτυξή του) και το IoT (internet of things).

Απώλεια ιδιοκτησίας

Η παραπάνω όμως «συμφωνία» μεταξύ μέσου χρήστη και βιομηχανίας πληροφορικής είχε μια παγίδα – ή, έστω, ένα αντάλλαγμα που δεν πολύ-εξηγήθηκε, νομίζω: την απώλεια του ελέγχου, της ιδιοκτησίας. (Η «συμφωνία» με τις κυβερνήσεις είναι ανεξήγητη για τους πολίτες τους ούτως ή άλλως.)  Δηλαδή, ναι μεν έχουμε πρόσβαση με, αντικειμενικά χαμηλή τιμή για όσα προσφέρει, σε όλη τη μουσική βιβλιοθήκη που υπάρχει ή σε περισσότερες ταινίες που θα μπορούσαμε ποτέ να δούμε, όμως αυτό είναι το μόνο που έχουμε: πρόσβαση. Αν ποτέ σταματήσουμε να πληρώνουμε τότε δεν θα έχουμε απολύτως τίποτα: ούτε ένα τραγούδι, ούτε ένα μουσικό κομμάτι, ούτε μια ταινία δικά μας.

Αυτή ακριβώς είναι η βασική διαφορά μεταξύ υπηρεσίας και προϊόντος. Η υπηρεσία είναι παροδική (ή, έστω, ενσωματώνεται και πάμε παρακάτω) ενώ το προϊόν, θεωρητικά, μόνιμο. Επίσης, η υπηρεσία ελέγχεται από εκείνον που την παρέχει, ενώ το προϊόν από εκείνον που το αγοράζει. Τέλος, το προϊόν είναι κάτι απτό, κάτι που παραδοσιακοί μηχανισμοί όπως το Κράτος καταλαβαίνουν και μεταχειρίζονται αντίστοιχα, ενώ η υπηρεσία κάτι άυλο, που συχνά ούτε καν μπορεί να περιγραφεί με απλό τρόπο.

Επομένως, τι είναι το λογισμικό μας, η μουσική μας και τα βιβλία μας; Προϊόντα που αγοράσαμε ή υπηρεσίες που μας παρέχονται κάθε μήνα; Αυτό εδώ το κείμενο απλά επισημαίνει την αλλαγή: από προϊόντα που ήταν στην αρχή έγιναν όλα, ψηφιακή, υπηρεσία μέσα σε λίγα χρόνια. Γι αυτή την αλλαγή κανείς μας δεν ρωτήθηκε και, κυρίως, σε κανέναν μας δεν προσφέρθηκε εναλλακτική. Είναι αυτό ακριβώς που πρέπει να αλλάξει: ακόμα και αν κάποιοι από εμάς απεχθάνονται την παραδοσιακή έννοια της ιδιοκτησίας, δηλαδή του απόλυτου ελέγχου πάνω σε κάτι, και πάλι σε καθέναν μας θα έπρεπε να δίνεται η επιλογή: αφού η βιομηχανία πληροφορικής μας απέδειξε ότι κάθε προϊόν μπορεί να γίνει και υπηρεσία τότε θα πρέπει να ισχύσει και το αντίστροφο κάθε δηλαδή υπηρεσία να μπορεί να γίνει προϊόν.

Η Τεχνητή Νοημοσύνη και ο μέσος, λογικός άνθρωπος

Δημοσιεύθηκε στο 2045.gr, 22.01.2024

Η Τεχνητή Νοημοσύνη θα πρέπει να ξεφύγει από μια προδιαγεγραμμένη συμπεριφορά, και να προσπαθήσει να συμβαδίσει με το απρόβλεπτο της ανθρώπινης φύσης.

Το αυτοκίνητό μου έχει σύστημα start-stop, αυτό δηλαδή που στο φανάρι σβήνει από μόνο του την μηχανή και την ξανανάβει μόλις ξεκινήσει, ώστε να πετύχουμε οικονομία και προστασία του περιβάλλοντος. Υπό κανονικές συνθήκες η μηχανή ανάβει και σβήνει αναλόγως αν ο οδηγός πατάει το γκάζι, όμως, και εδώ είναι ο λόγος που σας απασχολώ με το θέμα αυτό τόση ώρα, ο κατασκευαστής προσπάθησε να κάνει το σύστημα πιο «έξυπνο»: Το αυτοκίνητο, χρησιμοποιώντας τους αισθητήρες για το παρκάρισμα που ούτως ή άλλως έχει μπροστά, ανάβει από μόνο του την σβησμένη μηχανή και όταν αντιληφθεί ότι το μπροστινό όχημα αρχίζει να κινείται.

Καλό; Θεωρητικά ναι, πρακτικά όμως στην Ελλάδα όχι και τόσο. Αυτό, επειδή ο κατασκευαστής δεν συνυπολόγισε την ελληνική συνήθεια των μικρών «γκαζιών» ενώ τα αυτοκίνητα είναι σταματημένα στα φανάρια. Το φαινόμενο είναι συνηθισμένο: σε κάθε φανάρι υπάρχει κάποιος που σταματά αφήνοντας μεγαλύτερη από το κανονικό απόσταση από τον μπροστινό του και, καθώς περιμένει να αλλάξει το φανάρι, τσουλάει σιγά-σιγά. Όμως το αυτοκίνητό μου το ανιχνεύει αυτό σαν κίνηση και ξεκινά, ενώ ο μπροστινός ξανασταματά στους δέκα πόντους – και αυτό γίνεται ξανά και ξανά μέχρι επιτέλους να αλλάξει το φανάρι και να φύγουμε.

Όμως, δεν είναι σωστό μόνο να κατηγορώ τους συνανθρώπους μου ότι κάνουν πράγματα παράλογα. Το ίδιο κάνω και εγώ – σε διαφορετικές περιπτώσεις, βέβαια. Για παράδειγμα, τόσο το Spotify όσο και το Apple Music έχουν λίστες τραγουδιών για τρέξιμο. Αυτές ακολουθούν την, αναμενόμενη και σωστή, λογική ότι όποιος κάνει προπόνηση πρώτα κάνει ζέσταμα για κανένα τέταρτο, επομένως η μουσική είναι «χαμηλά», και μετά ξεκινά σταδιακά, επομένως η μουσική ανεβαίνει «σιγά-σιγά». Έλα όμως που εγώ σχεδόν πάντα βιάζομαι, επομένως ξεκινάω με ελάχιστο ζέσταμα, ανεβαίνω αμέσως όσο πιο γρήγορα μπορώ και συνεχίζω όσο αντέχω μέχρι περίπου να σκάσω, χωρίς να αφιερώνω ιδιαίτερο χρόνο και για αποθεραπεία. Έτσι όμως η λίστα μουσικής αχρηστεύεται, εγώ εκνευρίζομαι, και ο αλγόριθμος δεν μαθαίνει τίποτα (καλό) από μένα, όπως κανονικά θα έπρεπε ώστε να βοηθηθούν και άλλοι.

Με όλα αυτά θέλω να πω ότι καλή η Τεχνητή Νοημοσύνη, όμως η ζωή εκεί έξω έχει άπειρες παραλλαγές – τόσες, όσες και οι άνθρωποι. Καθένας μας έχει τις ιδιαιτερότητές του, τις σκέψεις και τις προτεραιότητές του, τις ικανότητές του, ή, έστω, τη στιγμή της ημέρας του. Η Τεχνητή Νοημοσύνη σήμερα, εμφανώς, δεν μπορεί να ακολουθήσει.

Γιατί συμβαίνει αυτό; Υποθέτω, επειδή το μοντέλο ανάπτυξής της είναι λογικο-κεντρικό, βασισμένο στη λογική. Το ερώτημα δηλαδή που απαντά κάθε φορά είναι, τι θα έκανε σε κάθε μια περίπτωση ένας μέσος, λογικός άνθρωπος. Και στο ερώτημα αυτό απαντούν μέσοι, λογικοί άνθρωποι, οι οποίοι έχουν σχεδιάσει τις εφαρμογές Τεχνητής Νοημοσύνης σήμερα. Έτσι, πράγματι ο μέσος λογικός άνθρωπος σταματά το αυτοκίνητό του μια μόνο φορά στο φανάρι και ξεκινά μόνο όταν αυτό γίνει πράσινο. Ή, κάνει ζέσταμα και αποθεραπεία, κάθε που κάνει τρεξιματική προπόνηση. Να όμως που η ζωή αποδεικνύεται διαφορετική.

Ο μέσος, λογικός άνθρωπος είναι μια πολύ χρήσιμη έννοια πχ. στη νομική ή τη φιλοσοφία. Πολύ συχνά ο νόμος ζητά από τον δικαστή να κρίνει βάσει του τι θα έκανε ένας μέσος, λογικός άνθρωπος σε μια συγκεκριμένη περίπτωση. Και η ηθική, στη (δυτική, τουλάχιστον) φιλοσοφία, στηρίζεται στο ότι ενεργεί (μόνος ή σε κοινωνία) ένας μέσος, λογικός άνθρωπος. Όμως όλες αυτές είναι θεωρητικές κατασκευές με σκοπό να λύσουν προβλήματα που δεν μπορούν να λυθούν ικανοποιητικά με άλλον τρόπο.

Αυτό δηλαδή που θέλω να πω είναι ότι η Τεχνητή Νοημοσύνη, που διεκδικεί ρόλο στην καθημερινότητά μας, δεν μπορεί να στηριχτεί σε αυτή τη, θεωρητική, κατασκευή του μέσου λογικού ανθρώπου. Οι στιγμές που καθένας μας λειτουργεί με απόλυτα λογικό τρόπο μέσα στην ημέρα του είναι πολλές, όμως εξίσου πολλές είναι και οι άλλες, οι στιγμές δηλαδή που (τουλάχιστον στα μάτια ενός εξωτερικού παρατηρητή) αυτό που κάνει δεν βγάζει νόημα. Πιθανότατα αυτό είναι ένα βασικό χαρακτηριστικό της ανθρώπινης φύσης μας, ίσως είναι αυτό που μας κάνει ανθρώπους, ότι δηλαδή κάνουμε λάθη. Η Τεχνητή Νοημοσύνη, αν θέλει πράγματι να βοηθήσει ουσιαστικά, θα πρέπει να ξεφύγει από μια προδιαγεγραμμένη (και εύκολα διαγνώσιμη και ανιχνεύσιμη) συμπεριφορά, και να προσπαθήσει να συμβαδίσει με το απρόβλεπτο, και συχνά παράλογο, της ανθρώπινης φύσης. Αλλιώς, θα παραμείνει ένα ακόμα χρήσιμο εργαλείο: θα μου θυμίζει να βάλω το καλοριφέρ λίγο πριν φτάσω στο σπίτι μου αν η μέρα είναι κρύα, αδυνατώντας να καταλάβει ότι είμαι τύπος που του αρέσει να νιώθει το σπίτι του να ζεσταίνεται σιγά-σιγά τον χειμώνα.

Ευρωπαϊκοί κανόνες για την Τεχνητή Νοημοσύνη

Δημοσιεύθηκε στην Οικονομική Επιθεώρηση, 23.06.2023

Πριν λίγες μέρες το Ευρωπαϊκό Κοινοβούλιο αποφάσισε για την οριστική του θέση στο Σχέδιο Νόμου για την Τεχνητή Νοημοσύνη. (Θεωρώ ότι η ελληνική μετάφραση του « ως «Πράξη», αντί για «Νόμος», «για την Τεχνητή Νοημοσύνη», είναι αποτυχημένη.) Το Σχέδιο Νόμου είχε συνταχθεί εδώ και λίγα χρόνια από την Ευρωπαϊκή Επιτροπή. Όπως προβλέπει η σχετική διαδικασία, την πρόταση της Επιτροπής επεξεργάζονται, χωριστά, το Κοινοβούλιο και το Συμβούλιο. Το Συμβούλιο έχει ήδη αποφασίσει για τη δική του θέση εδώ και λίγους μήνες, επομένως τώρα αρχίζει ο, λεγόμενος, «τρίλογος» μεταξύ των τριών οργάνων, δηλαδή οι εσωτερικές διαπραγματεύσεις «κεκλεισμένων των θυρών», ώστε να καταλήξουν στο οριστικό κείμενο.

Αυτό που έγινε κάπως διαφορετικά αυτή τη φορά είναι ότι ο τρίλογος άρχισε την ίδια μέρα με την απόφαση του Κοινοβουλίου. Αυτό είναι ενδεικτικό της πίεσης χρόνου, ενόψει των Ευρωεκλογών του 2024: από τις αρχές του νέου έτους οι νομοθετικές εργασίες θα τερματιστούν, και, μετά τις εκλογές, ποιος ξέρει αν το νέο Κοινοβούλιο και η Επιτροπή θα έχουν τις ίδιες προτεραιότητες, και απόψεις, όπως σήμερα. Συνεπώς, υπάρχει ασφυκτική πίεση χρόνου να ολοκληρωθούν όλα σύντομα.

Σε κάθε περίπτωση, μόλις όλα τελειώσουν η Ευρώπη θα είναι η πρώτη στον κόσμο που θα αποκτήσει νόμο για τη ρύθμιση της Τεχνητής Νοημοσύνης. Αυτή η εξέλιξη ούτε βιαστική ούτε απρόσμενη ήταν, παρά τη χρονική πίεση αυτής της περιόδου: Η Ευρωπαϊκή Επιτροπή που διορίστηκε το 2019 έθεσε ως προτεραιότητα τον «ψηφιακό μετασχηματισμό», και νομοθέτησε με συνέπεια και συνέχεια αντίστοιχα. Οι εργασίες πάνω στην Τεχνητή Νοημοσύνη είχαν ξεκινήσει ακόμα νωρίτερα, ήδη από το 2017. Με άλλα λόγια, ο ευρωπαϊκός Νόμος για την Τεχνητή Νοημοσύνη δεν είναι αποτέλεσμα των ημερών, και του ενδιαφέροντος που δημιούργησε, για παράδειγμα, το ChatGPT.

Αυτό που όμως ήταν αποτέλεσμα των ημερών ήταν οι νομοθετικές παρεμβάσεις στο αρχικό κείμενο της Επιτροπής τόσο από το Συμβούλιο όσο και από το Κοινοβούλιο. Στην ουσία, καθένας τους «εμπλούτισε» τις διατάξεις της Επιτροπής από το 2019 με τεχνολογίες των ημερών, δηλαδή του 2023. Έτσι, στις προτάσεις τους αντιμετωπίζονται ειδικά οι τεχνολογίες πίσω από το ChatGPT ή άλλες τεχνολογίες Τεχνητής Νοημοσύνης που έκαναν αισθητή την παρουσία τους πρόσφατα.

Ποιο είναι το πρόβλημα με αυτό; Ότι χάνεται η γενικότητα του νόμου και ο νομοθέτης φαίνεται να τρέχει, ασθμαίνοντας, πίσω από ό,τι νέο βγάζει κάθε φορά η βιομηχανία πληροφορικής Αυτή η στάση, αν και λύνει άμεσα προβλήματα, δεν οδηγεί ούτε σε μακροπρόθεσμες λύσεις (αν σκεφτεί κανείς ότι η προηγούμενη Οδηγία για τα προσωπικά δεδομένα ήταν του 1994 και εκείνη για το ηλεκτρονικό εμπόριο του 2000) ούτε, τελικά, δημιουργεί ασφάλεια δικαίου.

Ανεξαρτήτως των παραπάνω, αφού η Ευρώπη πρώτη νομοθετεί, τις λύσεις της θα είναι εκ των πραγμάτων αναγκασμένη να ακολουθήσουν τόσο οι ΗΠΑ όσο και η Κίνα. Αυτό συνέβη άλλωστε και σε άλλους τομείς ρύθμισης των ψηφιακών τεχνολογιών, όπως για παράδειγμα στις μεγάλες online πλατφόρμες ή, παλαιότερα, στον GDPR. Δημιουργείται έτσι το λεγόμενο «Brussels effect», όπου τους νόμους της Ευρώπης αντιγράφουν, στην ουσία, όλοι οι άλλοι.

Όμως, υπάρχει ένας «ελέφαντας μέσα στο δωμάτιο» όταν η Ευρώπη μιλά για τη ρύθμιση της Τεχνητής Νοημοσύνης. Αυτό το κοινό μυστικό αφορά στο γεγονός ότι οι αντίστοιχες τεχνολογίες δεν παράγονται στην Ευρώπη αλλά στις ΗΠΑ και την Κίνα. Στην ουσία, η Ευρώπη μόνο τις χρησιμοποιεί – και αν κανείς δεν πείθεται αν σκεφτεί ποιας «εθνικότητας» είναι οι εφαρμογές Τεχνητής Νοημοσύνης που γνωρίζει (όπως άλλωστε και οι online πλατφόρμες, όμως αυτό είναι μια άλλη συζήτηση).

Έτσι, επομένως, εξηγείται το κόμμα στον τίτλο αυτού εδώ του κειμένου. Ο πλήρης τίτλος του θα ήταν «Ευρωπαϊκοί κανόνες για την Τεχνητή Νοημοσύνη, που όμως δεν παράγεται στην Ευρώπη». Στην ουσία η Ευρώπη νομοθετεί για τις τεχνολογίες τρίτων, των ΗΠΑ και της Κίνας. Είναι και αυτό ένα ακόμα αποτέλεσμα της παγκοσμιοποίησης. Αν θα αποδειχτεί για το καλύτερο ή το χειρότερο της Ευρώπης, των Ευρωπαίων και της τεχνολογίας μένει να αποδειχτεί στο μέλλον.

To «Brussels effect», η Τεχνητή Νοημοσύνη και η πρωτιά της Ευρώπης

Δημοσιεύθηκε στο 2045.gr, 3.07.2023

Το “φαινόμενο των Βρυξελλών” δίνει ρόλο στην Ευρώπη στον παγκόσμιο χάρτη. Με το ΑΙ Act η Ευρώπη φιλοδοξεί για μια ακόμα φορά να αποτελέσει το παράδειγμα για όλο τον πλανήτη.

Τo Brussels effect είναι ένας όρος που όλο και περισσότερο, αυτάρεσκα, χρησιμοποιούμε στην Ευρώπη αυτή την περίοδο. Είναι σχετικά πρόσφατος, λανσαρίστηκε από την Anu Bradford και, εν ολίγοις, υποδηλώνει ότι όσα νομοθετεί πρώτη η Ευρώπη αντιγράφουν αργά ή γρήγορα και οι υπόλοιπες χώρες του πλανήτη.

Ισχύει πράγματι κάτι τέτοιο; Δεν είναι πιθανότερο να αντιγράφουν όλοι τους νόμους της Αμερικής, αφού αυτή είναι η ισχυρότερη (και δημοκρατική) χώρα στον κόσμο; Η συγγραφέας στήριξε το εύρημά της στην παρατήρηση κάποιων τομέων δικαίου και της αγοράς. Θεωρεί ότι, επειδή οι νόμοι της Ευρώπης είναι καλογραμμένοι, δημοκρατικοί και αυστηροί, έχουν κίνητρο να τους αντιγράψουν οι κυβερνήσεις παντού στον πλανήτη. Σε αυτό άλλωστε πιέζονται και από τις επιχειρήσεις τους, επειδή οι τεχνικές προδιαγραφές της Ευρώπης είναι οι αυστηρότερες στον κόσμο, επομένως η αντιγραφή τους και οδηγεί σε ομοιομορφία προϊόντων και υπηρεσιών (δηλαδή, τελικά σε οικονομία) αλλά και «πετά έξω» τον ανταγωνισμό από τους «μικρούς» που δεν έχουν ίσως τα χρήματα να εφαρμόσουν τις ίδιες αυστηρές μεθόδους παραγωγής. Όλα επομένως συνηγορούν στην υιοθέτηση των ευρωπαϊκών στάνταρντ και κανόνων από όλους.

Οι ψηφιακές τεχνολογίες παρουσιάζουν ορισμένα χαρακτηριστικά που κάνουν σχεδόν ιδανική τη νομοθέτηση από τις Βρυξέλλες” 

Τι μας νοιάζει αυτό; Η αλήθεια είναι ότι πρόκειται για ένα νομικό φαινόμενο (αν κανείς καν το αποδεχόταν), που δεν φαίνεται να επηρεάζει κάπως την καθημερινότητά μας. Επηρεάζει όμως την πολιτική, η οποία με τη σειρά της τελικά επηρεάζει την καθημερινότητά μας. Πώς γίνεται αυτό; Δίνοντας ώθηση στη νομοθέτηση από τις Βρυξέλλες. Αν το Brussels effect δίνει ρόλο στην Ευρώπη, και μάλιστα σε ένα παγκοσμιοποιημένο δίπολο μεταξύ Αμερικής και Κίνας, τότε δικαιολογεί και τον ρόλο της και τη συνέχιση των προσπαθειών της.

Αυτό δεν γίνεται πουθενά αλλού περισσότερο φανερό από στις ψηφιακές τεχνολογίες (μάλιστα, ένα από τα παραδείγματα της συγγραφέως είναι πράγματι η νομοθεσία για τα προσωπικά δεδομένα – ο, γνωστός μας, GDPR). Οι ψηφιακές τεχνολογίες παρουσιάζουν ορισμένα χαρακτηριστικά που κάνουν σχεδόν ιδανική τη νομοθέτηση από τις Βρυξέλλες (και όχι από τα εθνικά Κοινοβούλια): Είναι παγκοσμιοποιημένες, επομένως η νομοθέτηση από ένα μόνο κράτος (πχ. για τις ψηφιακές πλατφόρμες) θα ήταν αναποτελεσματική. Είναι επίσης γενικευμένες, επομένως ένα πρόβλημα που αντιμετωπίζει ένας Έλληνας χρήστης  πχ. του Facebook το αντιμετωπίζει με τον ακριβώς ίδιο τρόπο και ένας Γάλλος. Τέλος, είναι νέες και απαιτούν νέες λύσεις και νομικά μοντέλα, τα οποία όμως για να εκπονηθούν απαιτούν κόπο και χρήμα (και ειδικούς) που καμία χώρα μόνη της δεν διαθέτει σε επαρκή αριθμό.

Επομένως, ενθαρρυμένες και από το, «επώνυμο», πλέον φαινόμενο της νομοθέτησής τους, δηλαδή το Brussels effect, οι Βρυξέλλες πράγματι νομοθετούν πρώτες, και αποκλειστικά, για τις ψηφιακές τεχνολογίες. (Σε πλαίσιο ανερυθρίαστης αυτο-προώθησης(!), όσοι ενδιαφέρονται μπορούν να δουν σχετικό άρθρο μας, που αυτή την περίοδο γίνεται βιβλίο, εδώ.)

Το πιο πρόσφατο παράδειγμα αυτού του φαινομένου σημειώθηκε πριν λίγες μέρες, στο πεδίο της Τεχνητής Νοημοσύνης. Όμως, για να καταλάβουμε τι ακριβώς συνέβη απαιτείται μια μικρή αναδρομή. Η Ευρώπη ήδη από το 2017, ή και νωρίτερα ακόμα, είχε αρχίσει να συζητά για τη ρύθμιση της Τεχνητής Νοημοσύνης. Το θέμα έγινε προτεραιότητα με την εκλογή της νέας Ευρωπαϊκής Επιτροπής (μετά τις αντίστοιχες ευρωεκλογές) το 2019. Πράγματι, το 2021 η Ευρωπαϊκή Επιτροπή πρότεινε Σχέδιο Νόμου για την Τεχνητή Νοημοσύνη. (Θεωρώ ότι η ελληνική μετάφραση του «AI Act» ως «Πράξη», αντί για «Νόμος», «για την Τεχνητή Νοημοσύνη», είναι αποτυχημένη.) Όπως απαιτείται, στη συνέχεια επεξεργάστηκαν το Σχέδιο Νόμου το Συμβούλιο και το Κοινοβούλιο. Καθένα από τα δύο οφείλει να δημοσιεύσει τις θέσεις του και τις προτάσεις του σχετικά. Το Συμβούλιο το έκανε εδώ και λίγους μήνες – είναι το Κοινοβούλιο που ολοκλήρωσε τις δικές του διαδικασίες πριν λίγες μέρες. Επομένως, τώρα μπορεί να ξεκινήσει το τελευταίο στάδιο της ευρωπαϊκής νομοθέτησης, η συνεργασία μεταξύ των τριών οργάνων (ο, λεγόμενος, «τρίλογος») ώστε να συμβιβαστούν οι θέσεις τους και να καταλήξουμε σε τελικό κείμενο, κάτι που αναμένεται να συμβεί σύντομα (επειδή άλλωστε, «πιέζουν» πλέον χρονικά οι επόμενες ευρωεκλογές του Ιουνίου και η νέα Επιτροπή που θα έρθει – που μπορεί να βλέπει τα πράγματα διαφορετικά).

Σημασία έχει η ύπαρξη του Νόμου. Η παραδοχή δηλαδή ότι ο άνθρωπος πρέπει να προστατευτεί από την Τεχνητή Νοημοσύνη.

Αυτό που πρέπει να σημειωθεί είναι ότι η δημοσίευση των θέσεων του Συμβουλίου και του Κοινοβουλίου, ώστε να αρχίσει ο «τρίλογος», δεν είναι αυτονόητα. Κάποια νομοθετήματα «κολλάνε» για χρόνια. Άλλα απορρίπτονται ρητά και «επιστρέφονται» στην Επιτροπή. Επομένως, το γεγονός ότι για την Τεχνητή Νοημοσύνη όλοι κατέληξαν ότι απαιτείται πράγματι ρύθμιση και ότι το αρχικό κείμενο της Επιτροπής, μετά φυσικά από αλλαγές και τροποποιήσεις, είναι επαρκές για τον σκοπό αυτόν είναι και πρέπει να γιορταστεί ως επιτυχία. Αυτό άλλωστε εννοούσε η Πρόεδρος του Κοινοβουλίου Μέτσολα, όταν είπε ότι «σήμερα γράφουμε ιστορία».

Ιστορία όμως δεν γράφεται μόνο «εσωτερικά» στην Ευρώπη, αλλά και «εξωτερικά». Η αλήθεια είναι ότι κανένα άλλο κράτος του κόσμου, ούτε καν η Αμερική ή η Κίνα, οι οποίες στο κάτω-κάτω πρωταγωνιστούν στις εφαρμογές Τεχνητής Νοημοσύνης, δεν έχουν τολμήσει να νομοθετήσουν γι αυτές. Πρώτη η Ευρώπη προτείνει τέτοιο νόμο. Είναι επομένως πιθανότατο, σύμφωνα με τα παραπάνω, ο νόμος της να αντιγραφεί από όλη την υπόλοιπη υφήλιο.

Τι λέει βασικά αυτός ο νόμος; Η βασική του ιδέα, και παραδοχή, είναι ότι οι εφαρμογές Τεχνητής Νοημοσύνης κατηγοριοποιούνται (και μπορεί να κατηγοριοποιηθούν) ανάλογα με τους κινδύνους που δημιουργούν για τον άνθρωπο. Αν συμφωνήσουμε σε αυτό (δεν είναι αυτονόητο, παρακαλώ σκεφτείτε αν μπορείτε να κατηγοριοποιήσετε το λογισμικό που ήδη γνωρίζετε και χρησιμοποιείτε…) τότε μπορούμε σχετικά εύκολα να αποδεχτούμε ότι οι υψηλού κινδύνου εφαρμογές πρέπει να απαγορευτούν ή πάντως να περιοριστούν ασφυκτικά, οι μέσου κινδύνου να ρυθμιστούν πιο χαλαρά και οι άνευ κινδύνου σχεδόν καθόλου.

Φυσικά δεν είναι εδώ ο χώρος κατάλληλος για νομική ανάλυση. Ούτε είναι αυτό που έχει σημασία. Σημασία έχει η ύπαρξη του Νόμου. Η παραδοχή δηλαδή ότι ο άνθρωπος πρέπει να προστατευτεί από την Τεχνητή Νοημοσύνη. Η Ιστορία άλλωστε, αν αυτός είναι ο σκοπός μας, δεν γράφεται από τις λεπτομέρειες αλλά από το ίδιο το γεγονός. Ο GDPR, και η προστασία των προσωπικών δεδομένων, έγραψαν ιστορία αφού ξεκίνησαν από την Ευρώπη και πλέον κατέκτησαν όλον τον κόσμο ανεξαρτήτως από τις επιμέρους ρυθμίσεις τους. Είναι το γεγονός που μετράει: το γεγονός δηλαδή ότι χρειαζόμαστε νόμο για την προστασία των προσωπικών μας δεδομένων. Και, τώρα, το γεγονός ότι χρειαζόμαστε νόμο για να μας προστατεύσει από τις εφαρμογές Τεχνητής Νοημοσύνης.

Τι είναι εξίσου σημαντικό; Η ευελιξία. Σε ένα διαρκώς μεταβαλλόμενο περιβάλλον ο νόμος απαιτείται να έχει τις κεραίες του ανοιχτές. Να παρακολουθεί τις εξελίξεις και να προσαρμόζεται. Να τροποποιεί τις διατάξεις του, εφόσον χρειαστεί. Όπως είπαμε, το βασικό ζητούμενο ήταν η παραδοχή ότι πράγματι χρειαζόμασταν έναν τέτοιο νόμο. Από τη στιγμή που η Ευρώπη την έκανε πρώτη και για όλους, για όλον τον πλανήτη, η συνέχεια είναι λιγο-πολύ προδιαγεγραμμένη: το πρώτο βήμα έγινε, η υλοποίηση δεν θα αργήσει και, αν λάβουμε υπόψη τις προηγούμενες επιδόσεις της Ευρώπης, θα είναι παραπάνω από ικανοποιητική.