Monday, 18 November, 2024

Βρετανία, συνεργάτης Σούνακ: Κίνδυνος με την τεχνητή νοημοσύνη

«Οι άνθρωποι μπορεί να έχουν μόλις δύο χρόνια μπροστά τους για να δαμάσουν τα προηγμένα συστήματα τεχνητής νοημοσύνης

πριν γίνουν πολύ ισχυρά για να τα ελέγξουν», προειδοποίησε ο επικεφαλής σύμβουλος του Ρίσι Σουνάκ για την τεχνολογία.

Σύμφωνα με τους The Times, ο Ματ Κλίφορντ δήλωσε ότι τον προβληματίζει η παραδοχή των κορυφαίων εμπειρογνωμόνων της τεχνητής νοημοσύνης στον κόσμο ότι «δεν κατανοούν ακριβώς» πώς αυτά τα συστήματα «επιδεικνύουν τις συμπεριφορές που επιδεικνύουν» – μια κατάσταση που θεωρεί ότι είναι τρομακτική.

Το αίτημα των Βρετανών για ένα ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη

Ερωτηθείς αν αυτή θα μπορούσε να είναι η στιγμή που οι υπολογιστές θα μπορούσαν να ξεπεράσουν τους ανθρώπους σε νοημοσύνη, ο κ. Clifford είπε: «Η αλήθεια είναι ότι κανείς δεν ξέρει. Υπάρχει ένα πολύ ευρύ φάσμα προβλέψεων μεταξύ των ειδικών της τεχνητής νοημοσύνης. Νομίζω ότι δύο χρόνια θα είναι το πιο αισιόδοξο άκρο του φάσματος». Ο κ. Sunak ένωσε τη φωνή του με εκείνους που προειδοποιούν σχετικά με την έλλειψη κατάλληλου ρυθμιστικού πλαισίου της τεχνητής νοημοσύνης τον περασμένο μήνα, όταν δήλωσε στη σύνοδο κορυφής της G7 στην Ιαπωνία ότι πρέπει να υπάρξουν οι κατάλληλοι μηχανισμοί για να παρακολουθείται η ταχέως εξελισσόμενη τεχνολογία.

Ακόμη, ο ίδιος συναντήθηκε με ειδικούς σε θέματα τεχνητής νοημοσύνης στην Ντάουνινγκ Στριτ και αναμένεται να θέσει το θέμα στον πρόεδρο Τζο Μπάιντεν στην Ουάσινγκτον αυτή την εβδομάδα. Ο κ. Σουνάκ είναι κατανοητό ότι εξετάζει το ενδεχόμενο να πιέσει για μια AI έκδοση της Διεθνούς Υπηρεσίας Ατομικής Ενέργειας, η οποία διενεργεί επιθεωρήσεις για την ανάπτυξη πυρηνικών όπλων.  Ο κ. Κλίφορντ, ο οποίος προεδρεύει επίσης του κυβερνητικής υπηρεσίας Προηγμένης Έρευνας και Εφεύρεσης (Aria), συμφώνησε ότι πρέπει να δημιουργηθεί μια νέα παγκόσμια ρυθμιστική αρχή. Και πρόσθεσε: «Είναι σίγουρα αλήθεια ότι αν προσπαθήσουμε να δημιουργήσουμε τεχνητή νοημοσύνη που είναι πιο έξυπνη από τον άνθρωπο και δεν ξέρουμε πώς να την ελέγξουμε, τότε αυτό θα θα ανοίξει την κερκόπορτα για κάθε είδους κίνδυνο είτε τώρα, είτε στο μέλλον. Έτσι, νομίζω ότι υπάρχουν πολλά διαφορετικά σενάρια για τα οποία πρέπει να ανησυχούμε, αλλά σίγουρα πιστεύω ότι είναι σωστό να είναι πολύ ψηλά στην ατζέντα των φορέων χάραξης πολιτικής».

«Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τον σχεδιασμό χημικών και βιολογικών όπλων»

Ειδικότερα, σημειώνεται πως ο σύμβουλος του πρωθυπουργού υπογράμμισε την ανάγκη οι υπεύθυνοι χάραξης πολιτικής πρέπει να είναι προετοιμασμένοι για απειλές που κυμαίνονται από κυβερνοεπιθέσεις έως τη δημιουργία βιοόπλων, εάν η ανθρωπότητα δεν βρει τρόπο να ελέγξει την τεχνολογία.

Μεσοπρόθεσμα, όπως προστίθεται, οι ειδικοί προειδοποιούν ότι η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για τον σχεδιασμό χημικών και βιολογικών όπλων και τη διεξαγωγή μαζικών επιθέσεων μέσω του Διαδικτύου.

Η ανησυχία από τον αντίκτυπο της τεχνητής νοημοσύνης στο μέλλον της ανθρωπότητας χτύπησε κόκκινο την περασμένη εβδομάδα, με την υπογραφή κοινής δήλωσης από 350 ειδικούς της τεχνητής νοημοσύνης, συμπεριλαμβανομένου του Διευθύνοντος Συμβούλου του OpenAI, που ανέπτυξε το ChatGPT. Προειδοποίησαν ότι υπήρχε κίνδυνος μακροπρόθεσμα ότι η τεχνολογία θα μπορούσε να οδηγήσει στην εξαφάνιση της ανθρωπότητας.

Η θετική πλευρά της τεχνητής νοημοσύνης

Ερωτηθείς ποιος είναι ο λόγος που τον κάνει να ανησυχεί ο κ. Κλίφορντ είπε: «Η Τεχνητή Νοημοσύνη τον κρατάει ξύπνιο τη νύχτα: «Το γεγονός ότι οι άνθρωποι που κατασκευάζουν τα πιο ικανά συστήματα παραδέχονται ελεύθερα ότι δεν καταλαβαίνουν ακριβώς πώς παρουσιάζουν τις συμπεριφορές που παρουσιάζουν».

Ωστόσο, ο κ. Clifford επέμεινε ότι υπάρχουν «προφανή οφέλη από την τεχνητή νοημοσύνη, αν όλα πάνε καλά» και ότι ο κόσμος θα μπορούσε να καταλήξει με «πολύ ισχυρά συστήματα που είναι ασφαλή και ανθεκτικά», τα οποία θα μπορούσαν να βελτιώσουν τη ζωή των ανθρώπων, να θεραπεύσουν ασθένειες, να κάνουν την οικονομία πιο παραγωγική και να βοηθήσουν τον πλανήτη να φτάσει στο καθαρό μηδέν.

Μοιραστείτε με τους φίλους σας
Μοιράσου με τους φίλους σου