Οι περιλήψεις AI της Google, το σύντομο κείμενο που βλέπουμε πλέον στην κορυφή της σελίδας όταν κάνουμε αναζήτηση στο διαδίκτυο, μπορεί να φαντάζουν αξιόλογες αλλά τα λάθη που έχουν καταγραφεί στο πλαίσιο ερευνών δείχνουν ένα συστημικό πρόβλημα παραπληροφόρησης που βάζει τους ανθρώπους σε κίνδυνο.
Ορισμένες περιλήψεις παρείχαν ψευδείς ή παραπλανητικές πληροφορίες και ανακρίβειες εκθέτοντας τους χρήστες σε κίνδυνο
Από την πλευρά τους, στελέχη του τεχνολογικού κολοσσού έχουν δηλώσει ότι τα AI Overviews, τα οποία χρησιμοποιούν γενετική τεχνητή νοημοσύνη για να προσφέρουν σύντομες περιλήψεις βασικών πληροφοριών γύρω από ένα θέμα ή ερώτημα, είναι «χρήσιμα» και «αξιόπιστα».
Ωστόσο, έχουν επανειλημμένα παρουσιάσει λανθασμένες ή παραπλανητικές ιατρικές πληροφορίες, οδηγώντας ανθρώπους σε επικίνδυνες αποφάσεις για την υγεία τους, καθυστερημένη διάγνωση ή ακόμα και αποφυγή αναζήτησης ιατρικής βοήθειας επειδή η AI τους καθησύχασε.
Όπως αναφέρει δημοσίευμα του Guardian, ορισμένες από αυτές τις περιλήψεις αποδείχτηκε ότι παρείχαν ψευδείς ή παραπλανητικές πληροφορίες και ανακρίβειες εκθέτοντας τους χρήστες σε σοβαρό κίνδυνο. Σε μία περίπτωση, η Google συμβούλευε ασθενείς με καρκίνο στο πάγκρεας να αποφεύγουν τροφές με υψηλή περιεκτικότητα σε λιπαρά, όταν σύμφωνα με τους ειδικούς η σύσταση είναι ακριβώς η αντίθετη.
Σε μια άλλη περίπτωση, το AI Overview παρουσίαζε ψευδείς πληροφορίες σχετικά με κρίσιμες εξετάσεις ηπατικής λειτουργίας, γεγονός που θα μπορούσε να οδηγήσει ανθρώπους με σοβαρή ηπατική νόσο να πιστεύουν λανθασμένα ότι είναι υγιή. Αναζητήσεις στην Google για εξετάσεις καρκίνου που αφορούν γυναίκες παρείχαν «εντελώς λανθασμένες» πληροφορίες – αναφέρεται στην έρευνα – που θα μπορούσαν να οδηγήσουν την ενδιαφερόμενη να αγνοήσει πραγματικά συμπτώματα, με κίνδυνο της ζωής της.
Εκπρόσωπος της Google δήλωσε ότι πολλά από τα παραδείγματα που τους κοινοποιήθηκαν ήταν «screenshots που δεν παρουσίαζαν ολόκληρο το κείμενο», ωστόσο από όσα μπόρεσαν να αξιολογήσουν, αυτά παρέπεμπαν «σε γνωστές, αξιόπιστες πηγές και συνιστούσαν την αναζήτηση συμβουλής από ειδικούς».
Προβληματισμός και ανησυχία
Η εν λόγω έρευνα έρχεται εν μέσω αυξανόμενων ανησυχιών από οργανώσεις υγείας, φιλανθρωπικά ιδρύματα και επαγγελματίες του χώρου ότι τα δεδομένα που παράγονται από την τεχνητή νοημοσύνη μπορεί να μπερδεύουν τους χρήστες του διαδικτύου.
Το πρόβλημα με τις περιλήψεις των AI Overviews, που συνδυάζουν στοιχεία από διαφορετικές διαδικτυακές πηγές, είναι ότι εμφανίζονται ως έτοιμη απάντηση στην κορυφή της μηχανής αναζήτησης αποκτώντας συχνά μεγαλύτερη βαρύτητα από τις ίδιες τις πηγές, καθώς η πληροφορία εκλαμβάνεται ως αξιόπιστη και διασταυρωμένη.
Τα AI Overviews εκλαμβάνονται ως «έτοιμη, διασταυρωμένη» απάντηση που αποκτά συχνά μεγαλύτερη βαρύτητα από τις ίδιες τις πηγές

Τον περασμένο Νοέμβριο, αναφέρει το βρετανικό μέσο, μελέτη διαπίστωσε ότι AI chatbots σε διάφορες πλατφόρμες παρείχαν ανακριβείς οικονομικές συμβουλές, ενώ παρόμοιες ανησυχίες έχουν διατυπωθεί και για τις περιλήψεις ειδησεογραφικών θεμάτων.
Η Σόφι Ράνταλ, διευθύντρια του Patient Information Forum που προωθεί τεκμηριωμένες πληροφορίες για ασθενείς και επαγγελματίες υγείας, επιβεβαίωσε το πρόβλημα με «τα AI Overviews της Google που τοποθετούν ανακριβείς πληροφορίες υγείας στην κορυφή των διαδικτυακών αναζητήσεων».
Οι άνθρωποι στρέφονται στο διαδίκτυο ιδίως στις πιο ευάλωτες στιγμές τους, όπως ασθενείς σε τελικό στάδιο νόσου ή υπερήλικες, «και αν οι πληροφορίες που λαμβάνουν είναι ανακριβείς ή εκτός πλαισίου, μπορούν να βλάψουν σοβαρά την υγεία τους», σημειώνει η Στέφανι Πάρκερ, διευθύντρια ψηφιακών υπηρεσιών της φιλανθρωπικής οργάνωσης Marie Curie.
Αναφερόμενη στη λανθασμένη πληροφορία του AI Overview για τον καρκίνο του παγκρέατος, η διευθύντρια υποστήριξης, έρευνας και επιρροής στην Pancreatic Cancer UK, Άννα Τζούελ, δήλωσε ότι η σύσταση προς τους ασθενείς να αποφεύγουν τροφές με υψηλά λιπαρά είναι «εντελώς λανθασμένη» και ότι αν κάποιος ασθενής ακολουθούσε αυτές τις οδηγίες, ενδέχεται να μην προσλάμβανε επαρκείς θερμίδες, να δυσκολευόταν να πάρει βάρος και να μην μπορούσε να αντέξει ούτε τη χημειοθεραπεία ούτε ενδεχομένως σωτήριες χειρουργικές επεμβάσεις».
Η πληκτρολόγηση του ερωτήματος «ποιο είναι το φυσιολογικό εύρος για εξετάσεις αίματος του ήπατος» οδηγούσε επίσης σε παραπλανητικές πληροφορίες, με πληθώρα αριθμών, ελάχιστο πλαίσιο και χωρίς καμία προσαρμογή ως προς την εθνικότητα, το φύλο, την εθνοτική καταγωγή ή την ηλικία των ασθενών.
«Πολλοί άνθρωποι με ηπατική νόσο δεν εμφανίζουν συμπτώματα μέχρι τα προχωρημένα στάδια, γι’ αυτό είναι τόσο σημαντικό να κάνουν εξετάσεις. Όμως αυτό που τα AI Overviews της Google χαρακτηρίζουν ως ‘φυσιολογικό’ μπορεί να διαφέρει δραστικά από αυτό που θεωρείται στην πραγματικότητα φυσιολογικό», εξηγεί η Πάμελα Χίλι, διευθύνουσα σύμβουλος του British Liver Trust.
Στο πλαίσιο της έρευνας έγινε αναζήτηση για «συμπτώματα και εξετάσεις καρκίνου του κόλπου», με το AI Overview να εμφανίζει το τεστ Παπανικολάου ως εξέταση για τον καρκίνο του κόλπου. Όπως αναφέρει η Αθηνά Λάμνισος, διευθύνουσα σύμβουλος της φιλανθρωπικής οργάνωσης για τον καρκίνο Eve Appeal, «δεν πρόκειται για εξέταση που ανιχνεύει καρκίνο, και σε καμία περίπτωση δεν είναι εξέταση για τον καρκίνο του κόλπου».
Η ίδια προσθέτει: «Η παροχή τέτοιων λανθασμένων πληροφοριών θα μπορούσε να οδηγήσει κάποια γυναίκα στο να μην ελέγξει συμπτώματα καρκίνου του κόλπου επειδή είχε ‘καθαρό’ αποτέλεσμα σε πρόσφατο προληπτικό έλεγχο τραχήλου της μήτρας. Μας ανησύχησε επίσης το γεγονός ότι η περίληψη της AI άλλαζε περιεχόμενο όταν κάναμε ακριβώς την ίδια αναζήτηση, δίνοντας κάθε φορά διαφορετική απάντηση, αντλημένη από διαφορετικές πηγές. Αυτό σημαίνει ότι οι άνθρωποι λαμβάνουν διαφορετική απάντηση ανάλογα με το πότε κάνουν την αναζήτηση».
Επίσης, τα ευρήματα της έρευνας έδειξαν ότι τα AI Overviews της Google παρείχαν παραπλανητικά αποτελέσματα σε αναζητήσεις που αφορούσαν ψυχικές παθήσεις. «Αυτό προκαλεί τεράστια ανησυχία», δήλωσε ο Στίβεν Μπάκλεϊ, επικεφαλής πληροφόρησης της Mind. Ορισμένες από τις περιλήψεις της AI για καταστάσεις όπως η ψύχωση και οι διατροφικές διαταραχές προσέφεραν «πολύ επικίνδυνες συμβουλές» και ήταν «λανθασμένες, επιβλαβείς ή θα μπορούσαν να οδηγήσουν ανθρώπους στο να αποφύγουν την αναζήτηση βοήθειας».
Η απάντηση της Google σε όλα αυτά είναι ότι το ποσοστό ακρίβειας των AI Overviews είναι αντίστοιχο με αυτό άλλων λειτουργιών αναζήτησης, όπως τα featured snippets, τα οποία υπάρχουν εδώ και περισσότερο από μία δεκαετία. «Επενδύουμε σημαντικά στην ποιότητα των AI Overviews, ιδιαίτερα σε θέματα όπως η υγεία, και η συντριπτική πλειονότητα παρέχει ακριβείς πληροφορίες», σημείωσε εκπρόσωπος της εταιρείας.
Πηγή: in.gr



















![Σε τι διαφέρουν οι κληρονομικές συμβάσεις από τις διαθήκες [παραδείγματα]](https://www.ot.gr/wp-content/uploads/2025/12/scott-graham-OQMZwNd3ThU-unsplash-1200x801.jpg)















