Πέμπτη 18 Μαΐου 2023

O CEO του ChatGPT προειδοποιεί: Η τεχνητή νοημοσύνη μπορεί να βλάψει την ανθρωπότητα

O CEO του ChatGPT προειδοποιεί: Η τεχνητή νοημοσύνη μπορεί να βλάψει την ανθρωπότητα

«Αν αυτή η τεχνολογία πάει στραβά, μπορεί να πάει πολύ στραβά», δήλωσε ο Σαμ Άλτμαν στο Κογκρέσο. Τάσσεται υπέρ της δημιουργίας υπηρεσίας ελέγχου.
Ο διευθύνων σύμβουλος της OpenAI, Sam Altman, παρουσίασε μια απογοητευτική περιγραφή των τρόπων με τους οποίους η τεχνητή νοημοσύνη θα μπορούσε να «προκαλέσει σημαντική βλάβη στον κόσμο» κατά την πρώτη του κατάθεση στο Κογκρέσο, εκφράζοντας την προθυμία του να συνεργαστεί με νομοθέτες για την αντιμετώπιση των κινδύνων που παρουσιάζουν το ChatGPT της εταιρείας του και άλλα εργαλεία AI.

Οπως γράφει η Washington Post ο Altman υποστήριξε μια σειρά κανονισμών - συμπεριλαμβανομένης μιας νέας κυβερνητικής υπηρεσίας που είναι επιφορτισμένη με τη δημιουργία προτύπων για το χώρο- για να αντιμετωπίσει τις αυξανόμενες ανησυχίες ότι η τεχνητή νοημοσύνη θα μπορούσε να διαστρεβλώσει την πραγματικότητα και να δημιουργήσει πρωτοφανείς κινδύνους για την ασφάλεια. Συγκέντρωσε μια σειρά από «επικίνδυνες» συμπεριφορές που παρουσιάζονται από τεχνολογίες όπως το ChatGPT, συμπεριλαμβανομένης της διάδοσης «ένας προς έναν διαδραστικής παραπληροφόρησης» και της συναισθηματικής χειραγώγησης.

«Αν αυτή η τεχνολογία πάει στραβά, μπορεί να πάει πολύ στραβά», είπε ο Άλτμαν.

Ωστόσο, σε σχεδόν τρεις ώρες συζήτησης για πιθανές καταστροφικές βλάβες, ο Altman επιβεβαίωσε ότι η εταιρεία του θα συνεχίσει να αναπτύσσει την τεχνολογία, παρά τους πιθανούς κινδύνους. Αντί να είναι απερίσκεπτος, υποστήριξε ότι η διαδικασία ανάπτυξης των μοντέλων τεχνητής νοημοσύνης του OpenAI δίνει στα ιδρύματα χρόνο να κατανοήσουν πιθανές απειλές - μια στρατηγική κίνηση που βάζει την «σχετικά αδύναμη» και «βαθιά ατελή» τεχνολογία στον κόσμο για να κατανοήσει τους σχετικούς κινδύνους ασφάλειας.

Για εβδομάδες, ο Altman βρίσκεται σε μια παγκόσμια περιοδεία «καλής θέλησης», συναντώντας κατ' ιδίαν φορείς χάραξης πολιτικής - συμπεριλαμβανομένου του Μπάιντεν και μελών του Κογκρέσου - για να αντιμετωπίσει την ανησυχία για την ταχεία ανάπτυξη του ChatGPT και άλλων τεχνολογιών. Η ακρόαση της Τρίτης σηματοδότησε την πρώτη ευκαιρία για το ευρύτερο κοινό να ακούσει το μήνυμά του προς τους υπεύθυνους χάραξης πολιτικής, σε μια στιγμή που η Ουάσιγκτον παλεύει όλο και περισσότερο με τρόπους ρύθμισης μιας τεχνολογίας που ήδη απειλεί θέσεις εργασίας, ενισχύει τις απάτες και διαδίδει ψεύδη, γράφει η εφημερίδα.

Μέλη της υποεπιτροπής Δικαιοσύνης της Γερουσίας εξέφρασαν βαθύ φόβο για την ταχεία εξέλιξη της τεχνητής νοημοσύνης, υποδεικνύοντας επανειλημμένα ότι οι πρόσφατες εξελίξεις θα μπορούσαν να είναι πιο διαδραστικές από το Διαδίκτυο - ή τόσο επικίνδυνες όσο η ατομική βόμβα.

«Αυτή είναι η ευκαιρία σας, παιδιά, να μας πείτε πώς να το κάνουμε σωστά», είπε ο γερουσιαστής John Kennedy (R-La.) στους μάρτυρες. «Παρακαλώ χρησιμοποιήστε τη».

Οι νομοθέτες και από τα δύο κόμματα εξέφρασαν ανοιχτά την ιδέα της δημιουργίας μιας νέας κυβερνητικής υπηρεσίας επιφορτισμένης με τη ρύθμιση της τεχνητής νοημοσύνης, αν και οι προηγούμενες προσπάθειες να δημιουργηθεί μια συγκεκριμένη υπηρεσία με επίβλεψη της Silicon Valley έχουν βαλτώσει στο Κογκρέσο, εν μέσω κομματικών διχασμών σχετικά με το πώς να σχηματιστεί ένα τέτοιο μεγαθήριο.

Η κυβέρνηση Μπάιντεν έχει χαρακτηρίσει την τεχνητή νοημοσύνη ως βασική προτεραιότητα και οι νομοθέτες λένε επανειλημμένα ότι θέλουν να αποφύγουν τα ίδια λάθη που έχουν κάνει με τα μέσα κοινωνικής δικτύωσης. Ωστόσο, παρά την ευρεία δικομματική συμφωνία ότι η τεχνητή νοημοσύνη αποτελεί απειλή, οι νομοθέτες δεν έχουν ακόμη συναινέσει γύρω από κανόνες που θα διέπουν τη χρήση ή την ανάπτυξή της.

Ο Altman είπε ότι το OpenAI έχει υιοθετήσει ορισμένες πολιτικές για την αντιμετώπιση αυτών των κινδύνων, οι οποίες περιλαμβάνουν την απαγόρευση χρήσης του ChatGPT για τη «δημιουργία μεγάλου όγκου υλικού εκστρατείας», αλλά ζήτησε από τους υπεύθυνους χάραξης πολιτικής να εξετάσουν τη ρύθμιση γύρω από την τεχνητή νοημοσύνη.

Εκτός από τη δημιουργία μιας νέας ρυθμιστικής υπηρεσίας, ο Άλτμαν πρότεινε τη δημιουργία ενός νέου συνόλου προτύπων ασφαλείας για μοντέλα τεχνητής νοημοσύνης, δοκιμάζοντας αν θα μπορούσαν να αρχίσουν να ενεργούν μόνα τους. Πρότεινε επίσης ότι εμπειρογνώμονες θα μπορούσαν να διεξάγουν ανεξάρτητους ελέγχους, δοκιμάζοντας την απόδοση των μοντέλων σε διάφορες μετρήσεις.

euro2day.gr

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου