Για τη διττή φύση της τεχνητής νοημοσύνης (ΑΙ) και την ανάγκη άμεσης λήψης μέτρων, προκειμένου να εξασφαλιστεί η αξιοπιστία της πληροφορίας στην ψηφιακή εποχή, μίλησε ο Χρήστος Ταραντίλης, Εταίρος της EY Ελλάδος και Επικεφαλής του Τομέα Κεντρικής Κυβέρνησης και Υποδομών της EY Ελλάδος, στο πλαίσιο του πάνελ, με τίτλο “Artificial Intelligence and the Battle for Truth in the Digital Age”, το οποίο διεξήχθη κατά τη διάρκεια του 11ου Delphi Economic Forum.
Ο κ. Ταραντίλης τόνισε ότι το AI δεν είναι ούτε «σωτήρας» ούτε «απειλή» από μόνο του καθώς, όπως ανέφερε, «δεν είναι δυνατόν μία τόσο ισχυρή τεχνολογία να είναι μόνο επικίνδυνη ή μόνο χρήσιμη, είναι, όμως, σίγουρα και τα δύο». Όπως εξήγησε, τα συστήματα AI εκπαιδεύονται με μεγάλο όγκο δεδομένων και όταν τα δεδομένα είναι ποιοτικά τότε η τεχνητή νοημοσύνη συμβάλλει σημαντικά στην καινοτομία και στη βελτίωση της λήψης αποφάσεων. Αντίθετα, η κακόβουλη χρήση του ΑΙ οδηγεί στη μαζική παραγωγή deepfake βίντεο και παραποιημένων ηχητικών αποσπασμάτων στο διαδίκτυο, καθιστώντας δύσκολη τη διάκριση του πραγματικού από το ψευδές και προκαλώντας την απομάκρυνση πολλών πολιτών από την ενημέρωση και τη δημόσια συμμετοχή.
Υπογραμμίζοντας, μάλιστα, ότι η παραπληροφόρηση (disinformation) έχει αναγνωριστεί από το Παγκόσμιο Οικονομικό Φόρουμ ως ο μεγαλύτερος κίνδυνος για τις κοινωνίες σήμερα, σημείωσε ότι απαιτείται άμεση ενίσχυση της κρατικής ανθεκτικότητας, με ΑΙ εργαλεία εντοπισμού των deepfakes. Ο κ. Ταραντίλης στάθηκε, επίσης, στην ανάγκη επίτευξης ψηφιακής ιχνηλασιμότητας σε κάθε περιεχόμενο που παράγεται από το ΑΙ, μέσω είτε της υποχρεωτικής χρήσης αόρατων υδατογραφημάτων στις εικόνες και τα ηχητικά αποσπάσματα, είτε ενσωματώνοντας κρυπτογραφημένα μεταδεδομένα στα αρχεία.
Κομβικό στοιχείο, σύμφωνα με τον Εταίρο της EY Ελλάδος και καθηγητή του ΟΠΑ, είναι η «γνωστική θωράκιση» των πολιτών. «Από το Δημοτικό κιόλας, θα πρέπει να βάλουμε μαθήματα για το πώς κατασκευάζεται και πώς αποδομείται μία ψευδή είδηση», ανέφερε, προσθέτοντας ότι, έτσι, τα παιδιά θα μάθουν να αναγνωρίζουν το μοτίβο των ψευδών πληροφοριών, αναπτύσσοντας άμεση αντίσταση. Στην ίδια λογική, υπογράμμισε την ανάγκη εκπαίδευσης των υπαλλήλων της δημόσιας διοίκησης, λόγω του κρίσιμου ρόλου τους στην λειτουργία του κράτους, και των ανθρώπων της τρίτης ηλικίας ώστε να νιώσουν αυτοπεποίθηση στην αντιμετώπιση του αλγοριθμικού ψεύδους.
Στη συνέχεια, ο κ. Ταραντίλης τόνισε ότι οι απαντήσεις των Μεγάλων Γλωσσικών Μοντέλων (Large Language Models – LLMs), όπως το ChatGPT, δεν πρέπει εξ ορισμού να αποτελούν πήγες αλήθειας για τους χρήστες, καθώς, όπως ανέφερε, «δεν πρέπει να ξεχνάμε ότι οι απαντήσεις των LLMs δημιουργούνται προβλέποντας στατιστικά την επόμενη λέξη». Υπογράμμισε, επίσης, ότι τα Μεγάλα Γλωσσικά Μοντέλα αποτελούν εξαιρετικούς βοηθούς για τους χρήστες, αλλά οι απαντήσεις στα ερωτήματά τους απαιτούν προσωπική αναζήτηση και έρευνα από αξιόπιστες πηγές, ενώ προειδοποίησε πως «αν αρκεστούμε αποκλειστικά στις απαντήσεις των LLMs, κινδυνεύουμε να ανταλλάξουμε την ανθρώπινη κριτική ικανότητα με την ευκολία».
Τέλος, ο κ. Ταραντίλης τόνισε ότι οι προτάσεις που διατυπώθηκαν κατά τη διάρκεια του πάνελ είναι ρεαλιστικές, «καθώς τόσο οι τεχνολογίες, όσο οι μεθοδολογίες που απαιτούνται είναι γνωστές. Αυτό που μένει είναι η πολιτική βούληση για να τις εφαρμόσουμε άμεσα».
Σημειώνεται ότι στο πάνελ συμμετείχαν, επίσης, ο Δημήτρης Παπαστεργίου, Υπουργός Ψηφιακής Διακυβέρνησης και Τεχνητής Νοημοσύνης, ο Παύλος Μαρινάκης, Υφυπουργός παρά τω Πρωθυπουργώ και Κυβερνητικός Εκπρόσωπος, η Αλεξάνδρα Γούτα, εξειδικευμένη δημοσιογράφος σε θέματα τεχνολογίας, και ο συγγραφέας, Χρήστος Χωμενίδης. Συντονιστής της συζήτησης ήταν ο δημοσιογράφος, Σταύρος Παπαντωνίου.




