Ερευνητές στο UTSA βελτιώνουν την αξιοπιστία της τεχνητής νοημοσύνης στην ιατρική
Στο Πανεπιστήμιο του Τέξας στο Σαν Αντόνιο (UTSA), μια ομάδα επιστημόνων εργάζεται για να κάνει την τεχνητή νοημοσύνη (AI) πιο αξιόπιστη στην απάντηση ιατρικών ερωτήσεων. Το έργο τους, με τίτλο “Μείωση των Ψευδαισθήσεων των Μεγάλων Γλωσσικών Μοντέλων για Ερωτήσεις Ιατρικού Ιστορικού”, έλαβε επιχορήγηση 35.000 δολαρίων το 2024 μέσω του προγράμματος Collaborative Seed Funding Grant, το οποίο υποστηρίζεται από τη Σχολή Επιστημών Δεδομένων και το Open Cloud Institute. Η ερευνητική ομάδα, υπό την καθοδήγηση του Ke Yang, αναπληρωτή καθηγητή επιστήμης υπολογιστών, περιλαμβάνει επίσης τους Anthony Rios και Yuexia Zhang, αναπληρωτές καθηγητές συστημάτων πληροφορικής και στατιστικής. Όλοι είναι βασικά μέλη της Σχολής Επιστημών Δεδομένων. Το έργο τους επικεντρώνεται στη μείωση των ψευδαισθήσεων της AI, δηλαδή όταν η AI παρέχει με αυτοπεποίθηση λανθασμένες ή παραπλανητικές πληροφορίες. Οι μεγάλες γλωσσικές μοντέλα, όπως το ChatGPT, δημιουργούν απαντήσεις βασισμένες σε μοτίβα δεδομένων, αλλά δεν έχουν πραγματική κατανόηση του κόσμου.
Προκλήσεις και κίνδυνοι των ψευδαισθήσεων της AI στην ιατρική
Οι ψευδαισθήσεις της AI μπορούν να είναι ακίνδυνες, όπως η λανθασμένη ταυτοποίηση του Τορόντο ως πρωτεύουσα του Καναδά, αλλά σε τομείς όπως η υγειονομική περίθαλψη, οι συνέπειες μπορεί να είναι σοβαρές. Μια πρόσφατη μελέτη του Χάρβαρντ έδειξε ότι πολλοί άνθρωποι προτιμούν τις ιατρικές συμβουλές του ChatGPT από τις απαντήσεις των γιατρών, αναδεικνύοντας την ανάγκη για πιο αξιόπιστη AI στην ιατρική. Οι λανθασμένες ιατρικές συμβουλές από την AI μπορεί να οδηγήσουν σε εσφαλμένες διαγνώσεις ή λανθασμένες συστάσεις θεραπείας, καθιστώντας επιτακτική την ανάγκη βελτίωσης της ακρίβειας.
Βελτίωση της ακρίβειας της AI μέσω καλύτερης κατανόησης
Για να βελτιώσουν την ακρίβεια της AI, οι ερευνητές του UTSA εργάζονται για να παρέχουν καλύτερα πλαίσια αναφοράς στην AI πριν από τη δημιουργία απαντήσεων. “Παρατηρήσαμε ότι η AI μερικές φορές δίνει λανθασμένες απαντήσεις επειδή δεν έχει αρκετές πληροφορίες υπόβαθρου για τις ιατρικές ερωτήσεις,” δήλωσε ο Yang. Για να αντιμετωπίσουν αυτό το ζήτημα, πρότειναν την εξαγωγή ήδη γνωστών γνώσεων σχετικά με διαγνώσεις και πρακτικές για να βοηθήσουν την AI να σκέφτεται πιο λογικά. Στη συνέχεια, δομούν αυτήν την πληροφορία με τρόπο που επιτρέπει στην AI να την επεξεργαστεί πιο αποτελεσματικά χρησιμοποιώντας ένα άλλο σύστημα AI.
Δημιουργία μοντέλου AI που ελέγχει τις απαντήσεις του
Η ομάδα αναπτύσσει ένα μοντέλο AI που μπορεί να ελέγχει τις απαντήσεις του. Για να το επιτύχουν αυτό, δημιούργησαν ένα Γραφικό Γνώσης Αιτιότητας (CKG) — μια γνωστή μορφή που οργανώνει πληροφορίες από αξιόπιστες ιατρικές πηγές. Αυτή η δομή βοηθά την AI να αναγνωρίζει τις συνδέσεις μεταξύ ιατρικών εννοιών, επιτρέποντάς της να παρέχει πιο ακριβείς και αξιόπιστες απαντήσεις. Ενσωματώνοντας αυτά τα εξωτερικά δεδομένα με την αρχική ερώτηση του χρήστη, το μοντέλο αποκτά καλύτερη κατανόηση του πλαισίου της ερώτησης, βελτιώνοντας την ακρίβεια των απαντήσεών του.
Δημιουργία βάσης δεδομένων για αξιολόγηση και βελτίωση της AI
Πέρα από τη βελτίωση των ιατρικών απαντήσεων που παράγει η AI, η ομάδα επιδιώκει να δημιουργήσει μια βάση δεδομένων αναφοράς — μια συλλογή ερωτήσεων και απαντήσεων χωρίς ψευδαισθήσεις που θα μπορούσε να χρησιμεύσει ως πρότυπο για άλλους ερευνητές AI. Αυτός ο πόρος θα λειτουργήσει ως εργαλείο δοκιμής, επιτρέποντας στους προγραμματιστές να αξιολογούν τα μοντέλα AI με βάση επαληθευμένα δεδομένα και να βελτιώνουν τη συνολική απόδοση σε διάφορες εφαρμογές. “Το έργο μας βοηθά στη δημιουργία εργαλείων ανοιχτού κώδικα για ερευνητές και στην ανάπτυξη νέων λύσεων AI που βελτιώνουν την αξιοπιστία σε τομείς υψηλού κινδύνου όπως η υγειονομική περίθαλψη,” δήλωσε ο Yang.















