Ιδρυτές ΟpenAI ζητούν ρύθμιση για να αποτραπεί η καταστροφή της ανθρωπότητας

Οι ηγέτες του προγραμματιστή του ChatGPT OpenAI ζήτησαν τη ρύθμιση των «υπερευφυών» (superintelligence)  συστημάτων τεχνητής νοημοσύνης AI, υποστηρίζοντας ότι χρειάζεται κάτι ανάλογο με τον Διεθνή Οργανισμό Ατομικής Ενέργειας για την προστασία της ανθρωπότητας από τον κίνδυνο να δημιουργήσει κατά λάθος κάτι με τη δύναμη να το καταστρέψει.

Σύμφωνα με σχετικό δημοσίευμα του Guardian,  ένα σύντομο σημείωμα που δημοσιεύτηκε στον ιστότοπο της εταιρείας, οι συνιδρυτές Greg Brockman και Ilya Sutskever και ο διευθύνων σύμβουλος, Sam Altman, ζητούν από μια διεθνή ρυθμιστική αρχή να αρχίσει να εργάζεται

για το πώς να «επιθεωρήσει συστήματα, να απαιτήσει ελέγχους, να ελέγξει τη συμμόρφωση με τα πρότυπα ασφαλείας , [και] να θέσει περιορισμούς στους βαθμούς ανάπτυξης και στα επίπεδα ασφάλειας» προκειμένου να μειωθεί ο «υπαρξιακός κίνδυνος» που θα μπορούσαν να θέτουν τέτοια συστήματα.

«Είναι κατανοητό ότι μέσα στα επόμενα 10 χρόνια, τα συστήματα τεχνητής νοημοσύνης θα ξεπεράσουν το επίπεδο δεξιοτήτων των ειδικών στους περισσότερους τομείς και θα ασκούν τόσο παραγωγική δραστηριότητα όσο μία από τις μεγαλύτερες εταιρείες του σήμερα», γράφουν. «Όσον αφορά τόσο τα πιθανά θετικά όσο και τα αρνητικά, το superintelligence θα είναι πιο ισχυρό από άλλες τεχνολογίες τις οποίες έπρεπε να αντιμετωπίσει η ανθρωπότητα στο παρελθόν. Μπορούμε να έχουμε ένα δραματικά πιο ευημερούν μέλλον. αλλά πρέπει να διαχειριστούμε τον κίνδυνο για να φτάσουμε εκεί. Δεδομένης της πιθανότητας υπαρξιακού κινδύνου, δεν μπορούμε παρά να αντιδράσουμε».

Βραχυπρόθεσμα, η τριανδρία ζητά «κάποιο βαθμό συντονισμού» μεταξύ των εταιρειών που εργάζονται στην έρευνα αιχμής της τεχνητής νοημοσύνης, προκειμένου να διασφαλιστεί ότι η ανάπτυξη ολοένα πιο ισχυρών μοντέλων ενσωματώνεται ομαλά στην κοινωνία, δίνοντας προτεραιότητα στην ασφάλεια. Αυτός ο συντονισμός θα μπορούσε να γίνει μέσω ενός κυβερνητικού έργου, για παράδειγμα, ή μέσω μιας συλλογικής σύμβασης για τον περιορισμό της ανάπτυξης της ικανότητας τεχνητής νοημοσύνης.

Οι ερευνητές έχουν προειδοποιήσει για τους πιθανούς κινδύνους της υπερευφυΐας (superintelligence) εδώ και δεκαετίες, αλλά καθώς η ανάπτυξη της τεχνητής νοημοσύνης επιταχύνθηκε, αυτοί οι κίνδυνοι έγιναν πιο συγκεκριμένοι. Το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης (CAIS) που εδρεύει στις ΗΠΑ, το οποίο εργάζεται για τη «μείωση των κινδύνων κοινωνικής κλίμακας από την τεχνητή νοημοσύνη», περιγράφει οκτώ κατηγορίες «καταστροφικών» και «υπαρξιακών» κινδύνων που θα μπορούσε να θέσει η ανάπτυξη της τεχνητής νοημοσύνης.

Ενώ κάποιοι ανησυχούν για ένα ισχυρό AI που καταστρέφει εντελώς την ανθρωπότητα, κατά λάθος ή επίτηδες, το CAIS περιγράφει άλλες πιο ολέθριες βλάβες. Ένας κόσμος όπου τα συστήματα τεχνητής νοημοσύνης παραδίδονται εθελοντικά όλο και περισσότερο εργατικό δυναμικό θα μπορούσε να οδηγήσει στην απώλεια της ικανότητας της ανθρωπότητας να αυτοκυβερνηθεί και να εξαρτάται πλήρως από τις μηχανές, που περιγράφεται ως «αδυναμία». Και μια μικρή ομάδα ανθρώπων που ελέγχουν ισχυρά συστήματα θα μπορούσαν να «κάνουν την τεχνητή νοημοσύνη μια συγκεντρωτική δύναμη».

Οι ηγέτες του OpenAI λένε ότι αυτοί οι κίνδυνοι σημαίνουν ότι «οι άνθρωποι σε όλο τον κόσμο θα πρέπει να αποφασίζουν δημοκρατικά για τα όρια και τις προεπιλογές για τα συστήματα AI», αλλά παραδέχονται ότι «δεν ξέρουμε ακόμη πώς να σχεδιάσουμε έναν τέτοιο μηχανισμό». Ωστόσο, λένε ότι η συνεχής ανάπτυξη ισχυρών συστημάτων αξίζει τον κίνδυνο..

Keywords
Τυχαία Θέματα