Η πληροφορία, όπως έχουμε πει πολλές φορές, καταφέραμε να μεταφέρεται με ταχύτατους ρυθμούς. Η υπολογιστική ισχύς και οι υπερυπολογιστές έχουν φτάσει σε τρομακτικές ταχύτητες τις δυνατότητες επεξεργασίας, πολλές φορές με μεγάλο αποτύπωμα στο περιβάλλον. Χρησιμοποιούμε όμως, ορθά όλες αυτές τις δυνατότητες;
Ο ειδικός σε θέματα τεχνητής νοημοσύνης Abd-Almageed και ο ειδικός σε θέματα παραπληροφόρησης Kevin Matthe Caramancion προειδοποιούν ότι πολύ μεγάλος όγκος πολυμέσων που παράγεται από τη Τεχνητή Νοημοσύνη (ΑΙ), είναι αφορμή για να προκληθεί ζημία αν ληφθούν υπόψη σαν πραγματικά. Ιδιαίτερη σημασία, λένε, αποτελούν οι πιο ευαίσθητες περιοχές ενασχόλησης, όπως η πολιτική και η δημόσια ασφάλεια.
Το δελτίο ειδήσεων του Σικάγο, μετέφερε αυτούσια είδηση που βρήκε από σελίδα του Facebook, χωρίς να φιλτράρει βασικές πληροφορίες, όπως τη λανθασμένη χρήση αγγλικής γλώσσας που παρήγαγε η τεχνητή νοημοσύνη σαν τίτλο στο βίντεο. Έβγαλε, όπως θα δείτε στο βίντεο εδώ, πολύ λανθασμένα συμπεράσματα, τα οποία μπορεί να κάνουν να γελάει το άτομο που το δημοσίευσε, σε κάποια άλλη περίπτωση θα μπορούσε να προκαλέσει ένα ντόμινο αντιδράσεων με σοβαρές επιπτώσεις.
«Η ανθρωπότητα έχει αναπτυχθεί με το γνωμικό: αν το βλέπω το πιστεύω», αναφέρει ο Abd-Almageed και συνεχίζει λέγοντας ότι «Θα δούμε να γίνονται τέτοια φαινόμενο πιο συχνά».
Η παραγωγή ψευδών βίντεο σήμερα γίνεται πολύ εύκολα με λογισμικά που βρίσκονται στο διαδίκτυο, όπως το Sora 2. Γράφοντας μερικές παραγράφους για να περιγράψεις το βίντεο που θες να παραχθεί και περιμένοντας υπομονετικά για λίγα δευτερόλεπτα μια μηχανή κάπου στο κόσμο να καταναλώσει μισό λίτρο πόσιμου νερού, όπως μας αναφέρει στο βιβλίο του Τεχνητή Νοημοσύνη Ανθρωπος-Φύση-Μηχανές ο Αντώνης Μαυρόπουλος, δημιουργείται το βίντεο σου για δική σου κατανάλωση. Ή και πολλών άλλων αν το μοιραστείς με τα κοινωνικά δίκτυα.
Μιλώντας στην «Κυριακάτικη Απογευµατινή» ο Γιώργος Παπαπροδρόµου, αντιστράτηγος της ΕΛ.ΑΣ. και πρώην διευθυντής της ∆ιεύθυνσης ∆ίωξης Ηλεκτρονικού Εγκλήµατος, τόνισε πως «η χρήση της τεχνολογίας των deepfakes, µέσω της τεχνητής νοηµοσύνης και της Βαθιάς Μάθησης (Deep Learning), της παρέµβασης σε πολυµεσικά αρχεία µε τροποποίηση εικόνας, βίντεο και ήχου, έχει πολύ σοβαρό αντίκτυπο σε µια σειρά από κυβερνοεγκλήµατα, όπως απάτες, αλίευση δεδοµένων, αδικήµατα σεξουαλικής εκµετάλλευσης ανηλίκων κ.ά.».
Καθώς η χρήση των τεχνολογιών για τη δηµιουργία των deepfakes εξαπλώνεται και τα αποτελέσµατα γίνονται πιο ρεαλιστικά, καθίσταται πιο δύσκολο να ξεχωρίσει κάποιος το αληθινό από το ψεύτικο. Αυτό έχει συνέπεια να κλονίζεται η εµπιστοσύνη του κοινού στις πηγές της ενηµέρωσης. Ωστόσο, αξίζει να σηµειωθεί πως, παρά τους κινδύνους, η τεχνολογία των deepfakes έχει και θετικές εφαρµογές. Ειδικότερα, µπορεί να κάνει τα οπτικά εφέ πιο προσιτά σε ερασιτέχνες κινηµατογραφιστές. Παλαιότερα, οι ειδικές τεχνικές για οπτικά εφέ απαιτούσαν ακριβό εξοπλισµό και χρόνο. Με τα deepfakes, ακόµα και άτοµα χωρίς επαγγελµατικά µέσα µπορούν να δηµιουργήσουν ρεαλιστικά εφέ σε βίντεο, κάνοντας τη διαδικασία πιο εύκολη και οικονοµική.
Το άρθρο της απογευματινής μας θυμίζει το κοντινό Μάρτιο του 2022, το βίντεο - απάτη που παρουσίαζε το Ζελένσκι να ζητά τους στρατιώτες να παραδώσουν τα όπλα τους. Μια αρχή της χρήσης της τεχνητής νοημοσύνης και των fake news όπως λέμε στο χωριό μας, σε τόσο σε πολιτικό όσο και πολεμικό πλαίσιο.
Είναι στην ευθύνη της πολιτείας αρχικά να προστατέψει του πολίτες της από τις ψευδείς ειδήσεις και τη παραπληροφόρηση, μέσω οργανωμένης παιδείας αλλά υπεύθυνων μηχανισμών πραγματικής και ολοκληρωμένης ενημέρωσης.
Η αντιµετώπιση της παγίδας των deepfakes απαιτεί συνδυασµό ισχυρού θεσµικού πλαισίου, εκσυγχρονισµένων µηχανισµών ∆ικαιοσύνης και στενής διεθνούς συνεργασίας. Καµία χώρα δεν µπορεί να το αντιµετωπίσει µόνη της, και µόνο µέσα από συντονισµένες ενέργειες µπορεί να διασφαλιστεί η προστασία της αλήθειας.
Πηγές: