Ο Sundar Pichai, διευθύνων σύμβουλος της Google / Φωτογραφία: AP
Ο διευθύνων σύμβουλος της Google δεν διστάζει να αποκαλύψει ότι οι ανησυχίες για την τεχνητή νοημοσύνη τον κρατούν ξύπνιο τη νύχτα και ότι η τεχνολογία αυτή μπορεί να αποδειχθεί ιδιαίτερα επιβλαβής εάν αναπτυχθεί λανθασμένα.
Σε συνέντευξή του στο CBS, ο Sundar Pichai ζητά ένα παγκόσμιο ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη, παρόμοιο με τις συνθήκες για τη ρύθμιση της χρήσης πυρηνικών όπλων και προειδοποιεί ότι ο ανταγωνισμός για την παραγωγή προόδου στη συγκεκριμένη τεχνολογία θα μπορούσε να οδηγήσει σε παραμερισμό ανησυχιών των για την ασφάλεια.
Ο Pichai είπε ότι η αρνητική πλευρά της τεχνητής νοημοσύνης του προκαλεί ανησυχία τις νύχτες. «Μπορεί να είναι πολύ επιβλαβής εάν αναπτυχθεί λανθασμένα και δεν έχουμε ακόμη όλες τις απαντήσεις σε αυτό το πεδίο και η τεχνολογία προχωρά γρήγορα. Δηλαδή με κρατάει ξύπνιο το βράδυ», είπε.
Οι ειδικοί -και η Google- φοβούνται ότι η ανάπτυξη της τεχνητής νοημοσύνης θα μπορούσε να ξεφύγει από τον έλεγχό τους
Η μητρική της Google, η Alphabet, είναι ιδιοκτήτρια της εταιρείας τεχνητής νοημοσύνης DeepMind με έδρα το Ηνωμένο Βασίλειο και έχει ξεκινήσει ένα chatbot με τεχνητή νοημοσύνη, το Bard, ως απάντηση στο ChatGPT που αναπτύχθηκε από την αμερικανική εταιρεία τεχνολογίας OpenAI, το οποίο έχει εξελιχθεί σε... φαινόμενο από την κυκλοφορία του τον Νοέμβριο.
Ο Pichai είπε ότι οι κυβερνήσεις θα πρέπει να βρουν παγκόσμια πλαίσια για τη ρύθμιση της τεχνητής νοημοσύνης όπως αυτή αναπτύχθηκε. Τον περασμένο μήνα, χιλιάδες ειδικοί, ερευνητές και υποστηρικτές της τεχνητής νοημοσύνης -συμπεριλαμβανομένου του ιδιοκτήτη του Twitter, Έλον Μασκ- υπέγραψαν μια επιστολή που ζητούσε να σταματήσει η δημιουργία «κολοσσών» της τεχνητής νοημοσύνης για τουλάχιστον έξι μήνες, εν μέσω ανησυχιών ότι η ανάπτυξη της τεχνολογίας θα μπορούσε να φύγει εκτός ελέγχου.
Ο Pichai πρόσθεσε ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει βλάβες μέσω της ικανότητάς της να παράγει παραπληροφόρηση. «Θα είναι δυνατό με την τεχνητή νοημοσύνη να δημιουργηθεί εύκολα ένα βίντεο που θα μπορούσε να δείχνει τον δημοσιογράφο του CBS ή εμένα να λέμε κάτι που δεν είπαμε ποτέ. Και θα μπορούσε να φαίνεται ακριβές. Αλλά ξέρετε, σε κοινωνική κλίμακα, μπορεί να προκαλέσει πολύ κακό».
Πηγή: iefimerida.gr