chatGPT
Μια ομάδα διακεκριμένων επιστημόνων υπολογιστών και άλλων αξιόλογων του κλάδου της τεχνολογίας ζητούν εξάμηνη παύση στην τεχνολογία τεχνητής νοημοσύνης. (Shutterstock)

Μια πρόσφατη ανοιχτή επιστολή από επιστήμονες υπολογιστών και ηγέτες του κλάδου της τεχνολογίας ζητώντας εξάμηνη απαγόρευση ανάπτυξης τεχνητής νοημοσύνης έχει έλαβε ευρεία προσοχή στο διαδίκτυο. Ακόμη και ο υπουργός Καινοτομίας του Καναδά Φρανσουά-Φίλιπ Σαμπαν απάντησε στην επιστολή μέσω Twitter.

Η επιστολή, που δημοσιεύτηκε από το μη κερδοσκοπικό Ινστιτούτο Future of Life, ζήτησε από όλα τα εργαστήρια AI να σταματήσουν να εκπαιδεύουν συστήματα τεχνητής νοημοσύνης πιο ισχυρά από το GPT-4, το μοντέλο πίσω από το ChatGPT. Η επιστολή υποστηρίζει ότι η τεχνητή νοημοσύνη έχει «κλειδωθεί σε έναν αγώνα εκτός ελέγχου για να αναπτύξει και να αναπτύξει όλο και πιο ισχυρά ψηφιακά μυαλά που κανείς —ακόμα και οι δημιουργοί τους— δεν μπορεί να καταλάβει, να προβλέψει ή να ελέγξει αξιόπιστα».

Η επιστολή υποθέτει ότι η τεχνητή νοημοσύνη γίνεται, ή θα μπορούσε να γίνει, «ισχυρά ψηφιακά μυαλά» — α μακροπρόθεσμη ερμηνεία της ανάπτυξης του AI ότι αγνοεί σημαντικές συζητήσεις σχετικά με την τεχνητή νοημοσύνη σήμερα, αντί για μελλοντικές ανησυχίες.

Μακροχρόνια και τεχνητή νοημοσύνη

Η μακροχρόνια είναι η πεποίθηση ότι η τεχνητή νοημοσύνη εγκυμονεί μακροπρόθεσμους ή υπαρξιακούς κινδύνους για το μέλλον της ανθρωπότητας καθιστώντας μια υπερνοημοσύνη εκτός ελέγχου.


εσωτερικά εγγραφείτε γραφικό


Οι ανησυχίες για τα υπερευφυή AI είναι συνήθως θέμα επιστημονικής φαντασίας. Φαντασιώσεις AI είναι ένας από τους πολλούς φόβους στη Silicon Valley που μπορεί να οδηγήσει σε σκοτεινές προφητείες. Αλλά όπως το Torment Nexus meme, αυτές οι ανησυχίες μεταφράζονται σε μεγάλες επενδύσεις και όχι σε προσοχή. Οι περισσότερες μεγάλες εταιρείες τεχνολογίας έχουν κόψει τις υπεύθυνες ομάδες AI τους.

Το ChatGPT προφανώς δεν είναι μια διαδρομή προς την υπερευφυΐα. Η ανοιχτή επιστολή βλέπει την τεχνολογία γλώσσας AI, όπως το ChatGPT, ως μια γνωστική ανακάλυψη – κάτι που επιτρέπει σε μια τεχνητή νοημοσύνη να ανταγωνίζεται τους ανθρώπους σε γενικές εργασίες. Αλλά αυτή είναι μόνο μια άποψη.

Υπάρχουν πολλοί άλλοι που βλέπουν το ChatGPT, το μοντέλο GPT-4 του και άλλα μοντέλα εκμάθησης γλωσσών όπως «στοχαστικοί παπαγάλοι» που απλώς επαναλαμβάνουν αυτά που μαθαίνουν στο Διαδίκτυο εμφανίζομαι ευφυής για τον άνθρωπο.

Τα τυφλά σημεία της SuperIntelligence

Ο μακροπρόθεσμος έχει άμεσες πολιτικές επιπτώσεις που δίνουν προτεραιότητα στην υπερευφυΐα έναντι πιο πιεστικού ζητήματος όπως π.χ Ανισορροπίες ισχύος του AI. Μερικοί υποστηρικτές του μακροχρόνιου θεωρήστε ακόμη πιο επείγουσα τη ρύθμιση για τη διακοπή της υπερκατασκοπίας από την αντιμετώπιση της κλιματικής έκτακτης ανάγκης.

Οι επιπτώσεις της πολιτικής AI είναι άμεσες, όχι πολύ μακριά. Επειδή το GPT-4 εκπαιδεύεται σε ολόκληρο το Διαδίκτυο και έχει ρητώς εμπορικούς σκοπούς, εγείρει ερωτήματα σχετικά με τη δίκαιη συναλλαγή και τη δίκαιη χρήση.

Εξακολουθούμε να μην γνωρίζουμε εάν τα κείμενα και οι εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη προστατεύονται από πνευματικά δικαιώματα, αφού μηχανές και αγελάδων δεν μπορεί να κατέχει πνευματικά δικαιώματα.

Και όταν πρόκειται για θέματα απορρήτου, η προσέγγιση του ChatGPT είναι δύσκολο να διακριθεί από μια άλλη εφαρμογή τεχνητής νοημοσύνης, clearview AI. Και τα δύο μοντέλα AI εκπαιδεύτηκαν χρησιμοποιώντας τεράστιες ποσότητες προσωπικών πληροφοριών που συλλέχθηκαν στο ανοιχτό διαδίκτυο. Η αρχή προστασίας δεδομένων της Ιταλίας μόλις απαγόρευσε το ChatGPT λόγω ανησυχιών σχετικά με το απόρρητο.

Αυτοί οι άμεσοι κίνδυνοι δεν αναφέρονται στην ανοιχτή επιστολή, η οποία ταλαντεύεται μεταξύ άγριας φιλοσοφίας και τεχνικών λύσεων, αγνοώντας τα ζητήματα που βρίσκονται ακριβώς μπροστά μας.

Πνίγοντας τον πραγματισμό

Το γράμμα ακολουθεί μια παλιά δυναμική που ο συν-συγγραφέας μου και εγώ προσδιορίζουμε στο α προσεχές κεφάλαιο με αξιολόγηση από ομοτίμους σχετικά με τη διακυβέρνηση της τεχνητής νοημοσύνης. Υπάρχει μια τάση να αντιμετωπίζεται η τεχνητή νοημοσύνη είτε ως υπαρξιακός κίνδυνος είτε ως κάτι απλό και τεχνικό.

Η ένταση μεταξύ αυτών των δύο άκρων εμφανίζεται στην ανοιχτή επιστολή. Η επιστολή ξεκινά με τον ισχυρισμό ότι «η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να αντιπροσωπεύει μια βαθιά αλλαγή στην ιστορία της ζωής στη Γη» προτού ζητήσει «ισχυρή δημόσια χρηματοδότηση για την τεχνική έρευνα για την ασφάλεια της τεχνητής νοημοσύνης». Ο τελευταίος προτείνει ότι οι κοινωνικές βλάβες της τεχνητής νοημοσύνης είναι απλώς τεχνικά έργα που πρέπει να επιλυθούν.

Η εστίαση σε αυτά τα δύο άκρα παραγκωνίζει σημαντικές φωνές που προσπαθούν να συζητήσουν ρεαλιστικά τους άμεσους κινδύνους της τεχνητής νοημοσύνης που αναφέρθηκαν παραπάνω καθώς και εργασιακά θέματα και άλλα.

Η προσοχή που δίνεται στην ανοιχτή επιστολή είναι ιδιαίτερα προβληματική στον Καναδά, επειδή δύο άλλες επιστολές, που γράφτηκαν από τον καλλιτέχνες και οργανώσεις πολιτικών ελευθεριών, δεν έχουν λάβει την ίδια προσοχή. Αυτές οι επιστολές ζητούν μεταρρυθμίσεις και μια πιο ισχυρή προσέγγιση στη διακυβέρνηση της τεχνητής νοημοσύνης για την προστασία όσων επηρεάζονται από αυτήν.

Μια περιττή απόσπαση της προσοχής προς τη νομοθεσία της τεχνητής νοημοσύνης

Οι κυβερνητικές απαντήσεις στην ανοιχτή επιστολή τονίζουν ότι ο Καναδάς έχει νομοθεσία — ο νόμος περί τεχνητής νοημοσύνης και δεδομένων (AIDA). Οι μακροπρόθεσμοι κίνδυνοι της τεχνητής νοημοσύνης χρησιμοποιούνται για να επισπεύσουν τη νομοθεσία τώρα όπως η AIDA.

Το AIDA είναι ένα σημαντικό βήμα προς ένα σωστό καθεστώς διακυβέρνησης AI, αλλά χρειάζεται καλύτερα να συμβουλευτείτε όσους επηρεάζονται από την τεχνητή νοημοσύνη πριν εφαρμοστεί. Δεν μπορεί να βιαστεί να ανταποκριθεί στους αντιληπτούς μακροπρόθεσμους φόβους.

Οι εκκλήσεις της επιστολής για επίσπευση της νομοθεσίας για την τεχνητή νοημοσύνη μπορεί να καταλήξουν να ωφελούν τις ίδιες λίγες εταιρείες που οδηγούν σήμερα την έρευνα για την τεχνητή νοημοσύνη. Χωρίς χρόνο για διαβούλευση, ενίσχυση της δημόσιας παιδείας και ακρόαση όσων επηρεάζονται από την τεχνητή νοημοσύνη, η AIDA κινδυνεύει να μεταβιβάσει τη λογοδοσία και τον έλεγχο της τεχνητής νοημοσύνης σε ιδρύματα που είναι ήδη σε θέση να επωφεληθούν από την τεχνολογία, δημιουργώντας μια αγορά για έναν νέο κλάδο ελέγχου τεχνητής νοημοσύνης.

Η μοίρα της ανθρωπότητας μπορεί να μην είναι στη γραμμή, αλλά η καλή διακυβέρνηση της τεχνητής νοημοσύνης είναι σίγουρα.Η Συνομιλία

Σχετικά με το Συγγραφέας

Fenwick McKelvey, Αναπληρωτής Καθηγητής Πολιτικής Τεχνολογιών Πληροφορικής και Επικοινωνιών, Πανεπιστήμιο Concordia

Αυτό το άρθρο αναδημοσιεύθηκε από το Η Συνομιλία υπό την άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.