Τεχνητή νοημοσύνη: Γιατί «πονοκεφαλιάζει» τα Μέσα Ενημέρωσης

Πρόγραμμα τεχνητής νοημοσύνης «προσλήφθηκε» για δημοσιογραφική δουλειά από ειδησεογραφικό πρακτορείο κάπου στην Αργεντινή. Πρώτη αποστολή ήταν η εξής:

Δημιουργήστε μιας είδηση αξιοποιώντας το συγκεκριμένο υλικό (//tn.com.ar/policiales/2023/02/27/video-un-ladron-le-pego-una-trompada-a-una-jubilada-cuando-estaba-sacando-plata-de-un-cajero-automatico/.” ) και προσθέστε ονόματα, τόπο και χρόνο του γεγονότος.

Με την πρώτη ματιά το κείμενο του ChatGPT (Chat Generative Pretrained Transformer)

για μια βίαιη ληστεία ηλικιωμένης στο Μπουένος Άιρες φαινόταν βατό – πιθανόν εντυπωσιακό για έναν υπολογιστή ο οποίος κατάφερε να δομήσει ένα ρεπορτάζ με γλαφυρή εισαγωγή, σύντομες προτάσεις.

Είχε, δε, συνεκτική δομή η οποία ήταν αρκετά κοντά στο πρότυπο της ανεστραμμένης πυραμίδας ως λογική ανάπτυξης κειμένου που διδάσκεται στις περισσότερες δημοσιογραφικές σχολές.

Αλλά η λεπτομερής ανατροφοδότηση με στοιχεία από τον υπεύθυνο ειδήσεων άρχισε να «βαράει καμπανάκια» συναγερμού σε βαθμό τέτοιο ώστε το συγκεκριμένο πρακτορείο ειδήσεων, το οποίο δεν θέλησε να γίνει γνωστή η ταυτότητα του, απέρριψε την εφαρμογή και χρήση της τεχνητής νοημοσύνης στη δημοσιογραφική δουλειά έπειτα από σωρεία προβλημάτων στη σύνταξη της επίμαχης είδησης από το ChatGPT:

Ήταν λάθος το όνομα του θύματος. Λάθος η ηλικία του. Λάθος η τοποθεσία του εγκλήματος. Η περιγραφή του βίντεο δεν ταίριαζε με το οπτικο υλικό.

Ο δράστης αναφέρθηκε ως αγνώστου ταυτότητας ενώ υπήρχαν όνομα και ηλικία. Το ChatGPT έγραψε στην είδηση ότι ο δράστης έγινε άφαντος, ενώ συνελήφθη.

Φαίνεται ότι αποδόθηκε φράση στον δήμαρχο του Μπουένος Άϊρες, την οποία όμως δεν την είχε κάνει, ενώ το όνομα του ήταν γραμμένο λάθος. Επίσης ο υπολογιστής φαίνεται να κατασκεύασε δήλωση από τα παιδιά του θύματος.

Πολλοί εκδότες εξετάζουν τη χρήση της τεχνολογίας ChatGPT για συγκεκριμένους σκοπούς παραγωγής περιεχομένου με αξιοποιήση αυστηρά ελεγχόμενου πρωτογενούς υλικού, αλλά τα ρομπότ τεχνητής νοημοσύνης φαίνεται ότι δεν απειλούν την δουλειά των δημοσιογράφων.

Για την ώρα. Η πιλοτική εφαρμογή της τεχνητής νοημοσύνης ως υποκατάστατο της δουλειάς του δημοσιογράφου από τον δημοσιογραφικό οργανισμό της Αργεντινής, καταδεικνύει πόσο εξαιρετικά παράτολμη θα ήταν η απόφαση να αφεθεί ελεύθερο το ChatGPT να λειτουργεί ως δημοσιογράφος.

Ανησυχητικά σημάδια

Όμως το ChatGPT ως μια νέα μορφή αναζήτησης η οποία απαντά σε ερωτήσεις χρηστών χωρίς να παραθέτει πηγές και συνδέσμους, είναι εν δυνάμει απειλή για οργανισμούς ενημέρωσης και επιχειρηματικά μοντέλα εκδοτών.

Ένα πλήγμα που επέφερε η τεχνητή νοημοσύνη στον, ετσι κι αλλιώς σε κρίση, έντυπο Τύπο συνέβη με τον πρώτο μεγάλο διαχωρισμό συγκεκριμένων πληροφοριών τις οποίες οι χρήστες του διαδικτύου μπορούσαν να βρουν στο ίντερνετ.

Από το τί παίζουν οι κινηματογράφοι και ώρες προβολής ταινιών, μέχρι αγγελίες εργασίας, χωρίς να πρέπει να αγοράσουν ολόκληρη την εφημερίδα.

Στην επόμενη φάση οι πληροφορίες θα μπορούσαν να αποσυνδεθούν εντελώς από τη δημοσιογραφία και τα ρομπότ τεχνητής νοημοσύνης να επιλέγουν ειδήσεις για τον αναγνώστη να τού δίνουν τις βασικές πληροφορίες χωρίς να χρειάζεται ο χρήστης να πρέπει να δει τις ίσως ενοχλητικές για εκείνον διαφημίσεις ή να πληρώνει συνδρομή.

Η Bing έχει ήδη ενσωματώσει το ChatGPT. Αν το πράξει και η Google εκτιμάται ότι ένας στρατός δικηγόρων θα περιμένει έξω από τις «πόρτες» μηχανών αναζήτησης.

Η έλλειψη διαφάνειας από το ChatGPT,κατά τους ειδικούς, με τον τρόπο με τον οποίο τα ρομπότ που κάνουν αυτή τη δουλειά δεν απειλεί μόνον την κυκλοφορία/επισκεψιμότητα εντύπων/ιστοσελίδων εκδοτικών οργανισμών ενημέρωσης, αλλά εγείρει επίσης σοβαρές ανησυχίες για τον εντοπισμό στο μέλλον της παραπληροφόρησης και των απομιμήσεων ειδήσεων.

Ο Ρόμπερτ Τόμσον διευθύνων σύμβουλος του δημοσιογραφικού κολοσσού News Corp. (του μεγιστάνα Ρούπερτ Μέρντοχ), αποκάλυψε ότι η εταιρεία βρίσκεται σε συζητήσεις με εταιρείας τεχνητής νοημοσύνης σχετικά με την αποζημίωση που θα λάβει για πνευματικά δικαιώματα από την αξιοποίηση δημοσιευμάτων/ αναρτήσεων.

Γκρίζα ζώνη στα πνευματικά δικαιώματα

Στο Ηνωμένο Βασίλειο νομικός, από την ομάδα δικηγόρων οι οποίοι ήδη ασχολούνται με την υπόθεση, με ανοιχτή επιστολή στους Times απευθύνθηκε στη νέα ρυθμιστική αρχή Digital Markets Unit επισημαίνοντας ότι καλό είναι να ασχοληθεί επειγόντως με το ζήτημα ειδήσεων, οι οποίες γράφονται με τεχνητή νοημοσύνη.

Οι εκδότες του Η.Β. ευελπιστούν ότι η νεοσύστατη εποπτική αρχή- αναμένεται να λειτουργήσει εντός το 2023 – θα ρυθμίσει το περιβάλλον κατά τα πρότυπα της Αυστραλίας, ώστε να «θωρακιστούν» οι εκδοτικοί οργανισμοί απέναντι σε Google και Facebook – αμφότερες οι πλατφόρμες αφαιρούν περισσότερα από 10 δισ. λίρες ετησίως από τη διαφημιστική αγορά της Βρετανίας, αναφέρει το εξειδικευμένο Press Gazette.

Ενδεικτικό επίσης είναι πως η OpenAI, η εταιρεία πίσω από το ChatGPT, πέρα από τα όποια έσοδα – κυμαίνονται σε κάποιες δεκάδες εκατομμύρια δολάρια – έχει χρηματιστηριακή αξία περι τα 29 δισ. δολάρια στο χρηματιστήριο της Νέας Υόρκης χάρη στην εφαρμογή που πρωτοκυκλοφόρησε μόλις στις 22 Νοεμβρίου 2022.

Εν τω μεταξύ το ενδεχόμενο εύλογης αμοιβής από πνευματικά δικαιώματα για χρήση πληροφοριών από το ChatGPT έχει ανοίξει άλλη μια συζήτηση με θέμα αν και κατά πόσο οι εκδότες νομιμοποιούνται να χρεώουν το ChatGPT για την ανάλυση και την εκμετάλλευση του περιεχομένου ειδήσεων.

«Η νομοθεσία περί πνευματικής ιδιοκτησίας υστερεί πάντα σε σχέση με την τεχνολογική πρόοδο», σημείωσε δικηγόρος με εξειδίκευση σε νομικά ζητήματα σχετικά με τα Πρωτόκολλα Διαδικτύου.

«Οι νόμοι για την προστασία των πνευματικών δικαιωμάτων θεσπίστηκαν για να αντιμετωπιστούν ζητήματα που διαμορφώθηκαν με την εφεύρεση της εκτυπωτικής μηχανής. Επικαιροποιήθηκαν με την έλευση των ηλεκτρονικών υπολογιστών, επίσης όταν «μπήκε» στη ζωή μας το διαδίκτυο, παρότι ορισμένοι υποστηρίζουν ότι η μέριμνα για τα πνευματικά δικαιώματα στο διαδίκτυο υστερεί», πρόσθεσε.

Πάντως είναι ανατριχιαστική η απάντηση που έδωσε ChatGPT σε δημοσιογράφου του Η.Β. όταν ρωτήθηκε από που αντλεί πληροφορίες για τις ειδήσεις τις οποίες δημιουργεί και από ποιους εκδότες.

«Ως γλωσσικό μοντέλο τεχνητής νοημοσύνης δεν έχω κάποια πηγή ειδήσεων που προτιμώ». Όμως με αναδιατυπωμένη την ερώτηση το ρομπότ εν τέλει αποκάλυψε ότι «στα δεδομένα εκπαίδευσης μου συμβάλουν τα CNN, BBC, Reuters, NewYork Times, Washington Post, The Guardian, Al Jazeera και πολλοί άλλοι οργανισμοί ειδήσεων».

Με βάση τα παραπάνω φαίνεται πως οι περισσότεροι οργανισμοί ειδήσεων κύρους συμβάλλουν στην επιτυχία του ChatGPT… αφιλοκερδώς. Το στοιχείο αυτό εντείνει περισσότερο τον προβληματισμό για απόδοση πνευματικών δικαιωμάτων με δεδομένο ότι το ChaGPT εν δυνάμει σαρώνει χιλιάδες πηγές για κατασκευή ειδήσεων και μάλιστα χωρίς επίκληση σε αυτές ή αναφορά τους.

Διαβάστε επίσης

Ντέπυ Γκολεμά: «Η Φαίη Σκορδά έκανε το μεγαλύτερο λάθος της ζωής της…» (Video)

Μαύρο Ρόδο: Η σκηνή που συγκίνησε το Twitter – «Δεν έχω ανάγκη από μάνα εγώ»

«IQ 160»: Η Πηνελόπη χάνει τη γη κάτω από τα πόδια της με τα νέα στοιχεία

Keywords
νοημοσυνη, al jazeera, φαιη σκορδα, συγκεκριμένο, chat, σωρεία, συλληψεις, νέα, ειδήσεις, bing, google, στρατος, news, εταιρεία, times, facebook, press, cnn, bbc, reuters, washington, guardian, twitter, κινηση στους δρομους, χρηματιστηριο, σταση εργασιας, www.facebook.com, www.google.gr, αξια, κινηματογραφοι, βιντεο, αγγελιες, αγγελιες εργασιας, αργεντινη, δουλεια, ηνωμενο βασιλειο, θεμα, ονοματα, πηνελοπη, πνευματικα δικαιωματα, σχολες, τα νεα, ωρα, bbc, bing, cnn, guardian, news, reuters, times, αγορα, αποζημιωση, βρισκεται, γινει, γκολεμα, δεδομενο, δηλωση, δομη, διαδικτυο, εγινε, εκμεταλλευση, ελλειψη, επιτυχια, εταιρεία, εφημεριδα, ζωη, ζωης, ζωνη, ηλικια, ιντερνετ, υπηρχαν, υποθεση, κειμενο, λαθος, ματια, μεριμνα, μοντελα, μορφη, νομοι, ομαδα, παντα, ονομα, παιδια, περιβαλλον, πηγη, πλατφορμες, ρομποτ, συγκεκριμένο, συζητηση, συνταξη, σκορδα, σωρεία, ταυτοτητα, ωρες, al jazeera, δικαιωματα, εφαρμογη, ερωτησεις, ειδησης, washington, πηγες, πληροφοριες, ποδια, press, ροδο, σκηνη, υλικο
Τυχαία Θέματα
Τεχνητή, Μέσα Ενημέρωσης,techniti, mesa enimerosis