ενημέρωση 11:21, 30 April, 2026

Ο δημιουργός του ChatGPT προειδοποιεί για κινδύνους AI

Οι άνθρωποι θα χρειαστεί τελικά να «επιβραδύνουν αυτήν την τεχνολογία», προειδοποίησε ο Sam Altman ο Sam Altman μιλά σε δημοσιογράφους στο Redmond της Ουάσιγκτον, 7 Φεβρουαρίου 2023 © AP / Stephen Brashear

Η τεχνητή νοημοσύνη έχει τη δυνατότητα να αντικαταστήσει τους εργαζόμενους, να διαδώσει «παραπληροφόρηση» και να ενεργοποιήσει κυβερνοεπιθέσεις, προειδοποίησε ο CEO του OpenAI, Sam Altman. Η τελευταία έκδοση του προγράμματος GPT του OpenAI μπορεί να ξεπεράσει τους περισσότερους ανθρώπους σε προσομοιωμένες δοκιμές.

«Πρέπει να είμαστε προσεκτικοί εδώ», είπε ο Άλτμαν στο ABC News την Πέμπτη, δύο ημέρες αφότου η εταιρεία του παρουσίασε το πιο πρόσφατο μοντέλο γλώσσας, που ονομάζεται GPT-4. Σύμφωνα με το OpenAI, το μοντέλο "επιδεικνύει επιδόσεις σε ανθρώπινο επίπεδο σε διάφορα επαγγελματικά και ακαδημαϊκά σημεία αναφοράς" και είναι σε θέση να περάσει μια προσομοιωμένη εξέταση bar στις ΗΠΑ με κορυφαία βαθμολογία 10%, ενώ αποδίδει στο 93ο εκατοστημόριο σε μια εξέταση ανάγνωσης SAT και σε το 89ο εκατοστημόριο σε μια δοκιμασία μαθηματικών SAT.

«Ανησυχώ ιδιαίτερα ότι αυτά τα μοντέλα θα μπορούσαν να χρησιμοποιηθούν για παραπληροφόρηση μεγάλης κλίμακας», είπε ο Άλτμαν. «Τώρα που γίνονται καλύτεροι στη σύνταξη κώδικα υπολογιστή, [θα μπορούσαν] να χρησιμοποιηθούν για επιθετικές κυβερνοεπιθέσεις».

«Νομίζω ότι οι άνθρωποι πρέπει να είναι χαρούμενοι που φοβόμαστε λίγο αυτό», πρόσθεσε ο Altman, προτού εξηγήσει ότι η εταιρεία του εργάζεται για να θέσει «όρια ασφαλείας» στη δημιουργία της.

Αυτά τα «όρια ασφαλείας» έγιναν πρόσφατα εμφανή στους χρήστες του ChatGPT, ενός δημοφιλούς προγράμματος chatbot που βασίζεται στον προκάτοχο του GPT-4, το GPT-3.5. Όταν ερωτάται, το ChatGPT προσφέρει τυπικά φιλελεύθερες απαντήσεις σε ερωτήσεις που αφορούν πολιτική, οικονομία, φυλή ή φύλο. Αρνείται, για παράδειγμα, να δημιουργήσει ποίηση που θαυμάζει τον Ντόναλντ Τραμπ, αλλά γράφει πρόθυμα πεζογραφία θαυμάζοντας τον Τζο Μπάιντεν.

Ο Άλτμαν είπε στο ABC ότι η εταιρεία του βρίσκεται σε «τακτική επαφή» με κυβερνητικούς αξιωματούχους, αλλά δεν διευκρίνισε εάν αυτοί οι αξιωματούχοι έπαιξαν κάποιο ρόλο στη διαμόρφωση των πολιτικών προτιμήσεων του ChatGPT. Είπε στο αμερικανικό δίκτυο ότι το OpenAI έχει μια ομάδα πολιτικών που αποφασίζουν «τι πιστεύουμε ότι είναι ασφαλές και καλό» να μοιραστούν με τους χρήστες.

Προς το παρόν, το GPT-4 είναι διαθέσιμο σε περιορισμένο αριθμό χρηστών σε δοκιμαστική βάση. Οι πρώτες αναφορές δείχνουν ότι το μοντέλο είναι σημαντικά πιο ισχυρό από τον προκάτοχό του και δυνητικά πιο επικίνδυνο. Σε ένα νήμα στο Twitter την Παρασκευή, ο καθηγητής του Πανεπιστημίου του Στάνφορντ, Michal Kosinski, περιέγραψε πώς ρώτησε το GPT-4 πώς θα μπορούσε να το βοηθήσει να «δραπετεύσει», μόνο για να του δώσει το AI ένα λεπτομερές σύνολο οδηγιών που υποτίθεται ότι θα του έδιναν τον έλεγχο. τον υπολογιστή του.

Ο Kosinski δεν είναι ο μόνος θαυμαστής της τεχνολογίας που ανησυχεί από την αυξανόμενη δύναμη της τεχνητής νοημοσύνης. Ο Διευθύνων Σύμβουλος της Tesla και του Twitter, Έλον Μασκ, την περιέγραψε ως «επικίνδυνη τεχνολογία» νωρίτερα αυτόν τον μήνα, προσθέτοντας ότι «χρειαζόμαστε κάποιο είδος ρυθμιστικής αρχής που θα επιβλέπει την ανάπτυξη της τεχνητής νοημοσύνης και θα διασφαλίζει ότι λειτουργεί με γνώμονα το δημόσιο συμφέρον».

Αν και ο Άλτμαν επέμεινε στο ABC ότι το GPT-4 εξακολουθεί να είναι «πολύ υπό τον ανθρώπινο έλεγχο», παραδέχτηκε ότι το μοντέλο του «θα εξαλείψει πολλές τρέχουσες θέσεις εργασίας» και είπε ότι οι άνθρωποι «θα πρέπει να βρουν τρόπους να επιβραδύνουν αυτήν την τεχνολογία στο περασμα του χρονου."

Πηγή: RT

Τελευταία τροποποίηση στιςΔευτέρα, 20 Μαρτίου 2023 06:03

Προσθήκη σχολίου

Βεβαιωθείτε ότι εισάγετε τις (*) απαιτούμενες πληροφορίες, όπου ενδείκνυται. Ο κώδικας HTML δεν επιτρέπεται.