Οι περισσότεροι άνθρωποι, επηρεασμένοι από δημοφιλείς ταινίες, συνήθιζαν να συσχετίζουν την τεχνητή νοημοσύνη (AI) με τα ρομπότ. Ωστόσο, η χρήση εικονικών βοηθών όπως το Siri της Apple ή η Alexa της Amazon και πιο πρόσφατα προηγμένες εφαρμογές τεχνητής νοημοσύνης όπως το OPEN AI – Chat GPT για μεταφράσεις ή chatbots έχουν δείξει ότι η τεχνητή νοημοσύνη αναφέρεται σε λογισμικό —τουλάχιστον προς το παρόν— το οποίο είναι ένα πρόγραμμα υπολογιστή που επεξεργάζεται δεδομένα γρήγορα και δίνει απαντήσεις με βάση έναν αλγόριθμο. Αυτό το λογισμικό αναμένεται να βοηθήσει στη λήψη αποφάσεων:
α) πιο ακριβείς (ειδικά σε κρίσιμους τομείς όπως η ιατρική διάγνωση όπου η βιασύνη μπορεί να κοστίσει ακριβά),
β) πολύ πιο γρήγορο και φθηνότερο,
γ) χωρίς προκαταλήψεις — εγγενείς στην ανθρώπινη κρίση αλλά συχνά παράλογες — και πιο αντικειμενικό όσο και δίκαιο.
Τα φυλετικά ζητήματα, οι θρησκευτικές πεποιθήσεις ή το φύλο δεν μπαίνουν στο παιχνίδι όταν ένας αλγόριθμος λαμβάνει αποφάσεις. Αυτή είναι η παρανόηση που έχουν συχνά οι άνθρωποι. Ωστόσο, ας δούμε πώς κατασκευάζεται ένας αλγόριθμος μηχανικής μάθησης με απλούς όρους. Αρχικά, παρέχεται στον αλγόριθμο μια μεγάλη ποσότητα δεδομένων που είναι ήδη γνωστά (γνωστά ως δεδομένα εκπαίδευσης) τα οποία ο προγραμματιστής έχει χωρίσει σε είσοδο (γνωστά δεδομένα) και έξοδο (γνωστά αποτελέσματα). Το μοντέλο έχει αναπτυχθεί για να κάνει την είσοδο να οδηγεί στην έξοδο. Στη συνέχεια, η ποιότητα αυτού του μοντέλου μετριέται από την απόδοσή του σε πραγματικές καταστάσεις όπου η είσοδος δίνεται από πραγματικά δεδομένα και πρέπει να προβλέψει την έξοδο που ήταν άγνωστη σε εκείνο το σημείο. Τέλος, εάν το μοντέλο αποδειχθεί αποτελεσματικό, θα χρησιμοποιηθεί για την επεξεργασία νέων υποθέσεων ακόμη και με άγνωστα δεδομένα, ώστε να εξαχθούν συμπεράσματα από αυτές. Αυτό το σημείο είναι, τα νέα δεδομένα που συναντά αναζητώντας ανεξάρτητα από τον αλγόριθμο σε αυτό το στάδιο για να βρει γνωστά μοτίβα και καταστάσεις γνωστές ώστε να συναχθούν αποφάσεις και προβλέψεις για τις νέες συνθήκες.
Οι προκαταλήψεις και οι διακρίσεις μπορούν να βρουν διακριτικά το δρόμο τους σε κάθε στάδιο ανάπτυξης αλγορίθμου. Για παράδειγμα, εάν υπάρχει έλλειψη δεδομένων ή ανακριβή/παλαιωμένα δεδομένα για μια ομάδα ανθρώπων, ενώ μια άλλη ομάδα έχει καλά δεδομένα, το μοντέλο που παράγεται θα ευνοεί εγγενώς την τελευταία ομάδα.
Επιπλέον, εάν με βάση τα δεδομένα εκπαίδευσης τα άτομα σε μια φτωχή γειτονιά θεωρηθούν λιγότερο ικανά από αυτά σε μια πλούσια γειτονιά (αν και δεν αναφέρεται ρητά), το μοντέλο θα γενικεύσει και θα συμπεράνει ότι οι άνθρωποι που ζουν σε φτωχότερες περιοχές είναι λιγότερο ειδικευμένοι από εκείνους που έτυχε να ζήσουν σε πλουσιότερους — συμβάλλοντας σε περαιτέρω μεροληψία. Από αυτά του πρώτου.
Ομοίως, σε χώρες όπου το ΑΙ θα χρησιμοποιηθεί ως βοήθημα νομικού συστήματος – αυτό συμβαίνει ήδη σε ορισμένες πολιτείες των ΗΠΑ – ένας αλγόριθμος εκπαιδευμένος στα δεδομένα του λευκού εγκλήματος και του μαύρου εγκλήματος θα οδηγούσε φυσικά σε πιο ευνοϊκά αποτελέσματα και συμπεράσματα συν προτάσεις καταδίκης για τους λευκούς.
Ως εκ τούτου, που δημιουργήθηκε από τους ίδιους τους ανθρώπους, ανακαλύφθηκε ότι η τεχνητή νοημοσύνη θα μπορούσε πράγματι να κληρονομήσει προκαταλήψεις. Αυτό μπορεί να είναι πιο επικίνδυνο σε ορισμένες περιπτώσεις – για παράδειγμα, όταν τόσο ισχυροί παράγοντες (πολυεθνικές εταιρείες τροφίμων ή φαρμάκων, τράπεζες, ασφαλιστικές εταιρείες, πάροχοι ενέργειας και ακόμη και κυβερνήσεις) μπορούν να «κουμαντάρουν» τον αλγόριθμο που πρέπει να τους εξυπηρετεί. Εφεξής, δεδομένου ότι ο αλγόριθμος είναι δημιούργημα ανθρώπινων χεριών, φαίνεται πολύ πιθανό ότι η τεχνητή νοημοσύνη θα μπορούσε να φιλοξενεί προκαταλήψεις.
Το θέμα μπορεί να είναι άκρως επικίνδυνο – σαφώς έτσι – όταν το συζητήσουν ισχυροί παράγοντες (πολυεθνικές εταιρείες τροφίμων ή φαρμάκων, τράπεζες, ασφαλιστικές εταιρείες, πάροχοι ενέργειας ή ακόμα και κυβερνήσεις) που έχουν τη δύναμη να «εντολούν» τον αλγόριθμο να υποβάλει προσφορά.
Η τεχνητή νοημοσύνη είναι αναμφισβήτητα η τέταρτη βιομηχανική επανάσταση και θα αλλάξει τον τρόπο σκέψης και εργασίας μας, όπως γνωρίζαμε μέχρι τώρα. Ωστόσο, για να μην μετατραπεί σε ένα όπλο που ωφελεί λίγους σε βάρος πολλών – και για όλους να έχουν ίσες ευκαιρίες – η ανάπτυξη και η χρήση της τεχνητής νοημοσύνης θα πρέπει να διέπεται από αυστηρούς ηθικούς κανόνες που αργότερα μετατρέπονται σε νομικές επιταγές. Πολλές από αυτές τις ηθικές αξίες αποτελούν ήδη μέρος του GDPR: το οποίο, ως ισχυρό νομικό εργαλείο κατά των διακρίσεων, διασφαλίζει επίσης ότι η καινοτομία είναι πραγματικά ανθρωποκεντρική.
Επομένως, ενώ ορισμένοι μπορεί να θεωρήσουν τον GDPR περιττό ή γραφειοκρατικά επαχθή, είναι μια καινοτόμος νομοθεσία που εστιάζει σε άτομα. Ως εκ τούτου, δεν αποτελεί έκπληξη που οι περισσότερες ανεπτυγμένες χώρες εκτός ΕΕ προσπάθησαν γρήγορα να προσαρμόσουν τους δικούς τους νόμους ανάλογα — με τον ένα ή τον άλλο τρόπο. Πράγματι, θετικές είναι φυσικά οι δηλώσεις που προκύπτουν από το AI ACT. Αυτό φαίνεται να είναι ένας σύμμαχος που είναι συστηματικός και ισχυρός στην προστασία τόσο της ιδιωτικής ζωής όσο και της ισότητας έναντι ενός αδίστακτου παράγοντα τεχνητής νοημοσύνης. Το εάν όλα αυτά μπορούν να εφαρμοστούν είναι ακόμα άγνωστο ή εάν η τεχνητή νοημοσύνη θα ξεπεράσει τους νομοθέτες και την επιβολή του νόμου μένει να φανεί.















