Το Πεντάγωνο αποκαλύπτει το «Killer AI» που μπορεί αυτόνομα να σκοτώσει ανθρώπους

Το Πεντάγωνο αποκαλύπτει το «Killer AI» που μπορεί αυτόνομα να σκοτώσει ανθρώπους

24 Νοεμβρίου, 2023 1 Από Καλλιόπη Σουφλή
Προβολές:436
Μοίρασέ το

 

Το καθεστώς Μπάιντεν αποκάλυψε νέα ρομπότ «δολοφονικής τεχνητής νοημοσύνης» που μπορούν να κάνουν αυτόνομες επιλογές για το αν θα σκοτώσουν ανθρώπινους στόχους, σύμφωνα με μια ανησυχητική  αναφορά  των New York Times.

 

Χώρες όπως οι Ηνωμένες Πολιτείες, η Κίνα και το Ισραήλ αναπτύσσουν θανατηφόρο τεχνητή νοημοσύνη που θα έχει την εξουσία να σκοτώνει πολίτες χωρίς την ανάγκη ανθρώπινης έγκρισης, σημείωσαν οι Times.

Σύμφωνα με τους επικριτές, η ανάπτυξη «ρομπότ δολοφόνων» θα ήταν μια δυστοπική εξέλιξη, αναθέτοντας τις επιλογές του πεδίου μάχης ζωής και θανάτου σε άψυχες μηχανές με μηδενική ενσυναίσθηση.

 

Το Thepoliticsbrief.com αναφέρει: Αρκετές χώρες πιέζουν τα Ηνωμένα Έθνη για ένα δεσμευτικό ψήφισμα που να απαγορεύει τη χρήση μη επανδρωμένων αεροσκαφών δολοφονίας τεχνητής νοημοσύνης, ωστόσο, οι ΗΠΑ είναι μεταξύ των ελάχιστων εθνών, συμπεριλαμβανομένης της Ρωσίας, της Αυστραλίας και του Ισραήλ, που αντιτίθενται σε οποιαδήποτε τέτοια κίνηση.

«Αυτό είναι πραγματικά ένα από τα πιο σημαντικά σημεία καμπής για την ανθρωπότητα», δήλωσε σε συνέντευξή του ο Αλεξάντερ Κμεντ, επικεφαλής διαπραγματευτής της Αυστρίας για το θέμα. «Ποιος είναι ο ρόλος των ανθρώπων στη χρήση βίας — είναι ένα απολύτως θεμελιώδες ζήτημα ασφάλειας, ένα νομικό ζήτημα και ένα ηθικό ζήτημα».

Σύμφωνα με μια ανακοίνωση  που κυκλοφόρησε  νωρίτερα φέτος, το Πεντάγωνο εργάζεται για την ανάπτυξη σμηνών χιλιάδων drones με δυνατότητα AI.

Σε μια ομιλία του Αυγούστου, η αναπληρώτρια υπουργός Άμυνας των ΗΠΑ Kathleen Hicks δήλωσε ότι τεχνολογίες όπως τα σμήνη drone που ελέγχονται από AI θα επιτρέψουν στις ΗΠΑ να εξισορροπήσουν την αριθμητική υπεροχή του Απελευθερωτικού Στρατού (PLA) της Κίνας σε όπλα και ανθρώπινο δυναμικό.

«Θα αντιμετωπίσουμε τη μάζα του PLA με τη δική μας μάζα, αλλά η δική μας θα είναι πιο δύσκολο να σχεδιάσουμε, πιο δύσκολο να χτυπήσουμε, πιο δύσκολο να νικήσουμε», είπε,  ανέφερε το Reuters.

Ο γραμματέας της Πολεμικής Αεροπορίας, Φρανκ Κένταλ, είπε στους Times ότι τα μη επανδρωμένα αεροσκάφη με τεχνητή νοημοσύνη θα πρέπει να έχουν την ικανότητα να λαμβάνουν θανατηφόρες αποφάσεις ενώ βρίσκονται υπό ανθρώπινη επίβλεψη.

« Οι ατομικές αποφάσεις έναντι του μη λήψης ατομικών αποφάσεων είναι η διαφορά μεταξύ νίκης και ήττας — και δεν πρόκειται να χάσεις » , είπε.

«Δεν νομίζω ότι οι άνθρωποι με τους οποίους θα αντιμετωπίσουμε θα το έκαναν αυτό και θα τους έδινε τεράστιο πλεονέκτημα αν βάζαμε αυτόν τον περιορισμό στους εαυτούς μας ».

Σύμφωνα με το The New Scientist, η Ουκρανία χρησιμοποίησε drones ελεγχόμενα από AI στη σύγκρουσή της με τη Ρωσία τον Οκτώβριο, αν και είναι άγνωστο εάν τα drones προκάλεσαν ανθρώπινες απώλειες.

Ο Στιούαρτ Ράσελ, ανώτερος επιστήμονας τεχνητής νοημοσύνης στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ, και άλλοι θα προβάλουν το βίντεο τη Δευτέρα κατά τη διάρκεια εκδήλωσης που θα πραγματοποιηθεί από την Εκστρατεία  για να σταματήσουμε τα ρομπότ δολοφόνων  στη Σύμβαση των Ηνωμένων Εθνών για τα Συμβατικά Όπλα.

Η καμπάνια εκδίδει μια προειδοποίηση: «Οι μηχανές δεν μας βλέπουν ως ανθρώπους, απλώς ένα άλλο κομμάτι κώδικα που πρέπει να υποβληθεί σε επεξεργασία και ταξινόμηση. Από τα έξυπνα σπίτια μέχρι τη χρήση σκύλων ρομπότ από την αστυνομία, οι τεχνολογίες τεχνητής νοημοσύνης και η αυτοματοποιημένη λήψη αποφάσεων παίζουν πλέον σημαντικό ρόλο στη ζωή μας. Στο ακραίο άκρο του φάσματος του αυτοματισμού βρίσκονται τα ρομπότ δολοφόνοι».

«Τα ρομπότ δολοφόνων δεν εμφανίζονται απλώς – τα δημιουργούμε εμείς», πρόσθεσε η καμπάνια. «Αν επιτρέψουμε αυτή την απανθρωποποίηση, θα αγωνιστούμε για να προστατευτούμε από τη λήψη αποφάσεων από μηχανής σε άλλους τομείς της ζωής μας. Πρέπει να απαγορεύσουμε τα αυτόνομα οπλικά συστήματα που θα χρησιμοποιούνται εναντίον ανθρώπων, για να αποτρέψουμε αυτή τη διολίσθηση στην ψηφιακή απανθρωποποίηση».

Η δημιουργία και η χρήση αυτόνομων όπλων, όπως drones, τανκς και αυτόματα πολυβόλα, θα ήταν καταστροφική για την ανθρώπινη ασφάλεια και ελευθερία, σύμφωνα με τον Russell, και το παράθυρο για να σταματήσει η ανάπτυξή τους κλείνει γρήγορα.

«Η τεχνολογία που απεικονίζεται στην ταινία είναι απλώς μια ενοποίηση των υπαρχουσών δυνατοτήτων. Δεν είναι επιστημονική φαντασία. Στην πραγματικότητα, είναι πιο εύκολο να επιτευχθεί από τα αυτοοδηγούμενα αυτοκίνητα, τα οποία απαιτούν πολύ υψηλότερα πρότυπα απόδοσης», είπε ο Russell.

Η Campaign to Ban Killer Robots επισημαίνει επίσης ότι επειδή οι μηχανές που τροφοδοτούνται από AI είναι «σχετικά φθηνές στην κατασκευή, οι επικριτές φοβούνται ότι τα αυτόνομα όπλα θα μπορούσαν να παραχθούν μαζικά και να πέσουν στα χέρια απατεώνων εθνών ή τρομοκρατών που θα μπορούσαν να τα χρησιμοποιήσουν για να καταστείλουν πληθυσμούς και να καταστρέψουν καταστροφή, όπως δείχνει η ταινία».

«Μια συνθήκη που απαγορεύει τα αυτόνομα όπλα θα εμπόδιζε τη μεγάλης κλίμακας κατασκευή της τεχνολογίας», σημειώνει η BKR. «Θα παρείχε επίσης ένα πλαίσιο για την αστυνομία των χωρών που εργάζονται για την τεχνολογία και τη διάδοση συσκευών και λογισμικού διπλής χρήσης, όπως τα τετρακόπτερα και οι αλγόριθμοι αναγνώρισης στόχων».

«Οι επαγγελματικοί κώδικες δεοντολογίας θα πρέπει επίσης να απαγορεύουν την ανάπτυξη μηχανών που μπορούν να αποφασίσουν να σκοτώσουν έναν άνθρωπο», είπε ο Russell.

Σε ένα επεισόδιο του «Black Mirror» του 2017, σκυλιά ρομπότ δολοφόνοι περιφέρονται στη γη και κυνηγούν ακατάπαυστα ανθρώπινα όντα που εντοπίζονται από τα drones ως «απειλή».

Ο δημιουργός του αξέχαστου επεισοδίου, ο Charlie Brooker, εξήγησε τη σκέψη του πίσω από το όραμά του για μια robopocalypse σε μια συνέντευξη στο Entertainment Weekly.

Ο Brooker ρωτήθηκε για την έμπνευσή του πίσω από την ιστορία, την οποία ο συνεντευκτής πλαισίωσε ως διασταύρωση μεταξύ των «βίντεο της Boston Dynamics στο YouTube που διασταυρώθηκαν με το Night of the Living Dead».

«Αυτό είναι πραγματικά τρομακτικά σωστό», είπε ο Μπρούκερ. «Ήταν από την παρακολούθηση βίντεο της Boston Dynamics, αλλά σε συνδυασμό με το — έχετε δει την ταινία  All Is Lost ; Ήθελα να κάνω μια ιστορία όπου δεν υπήρχε σχεδόν κανένας διάλογος. Και με αυτά τα βίντεο, υπάρχει κάτι πολύ ανατριχιαστικό να τους βλέπεις όταν τους χτυπούν, και φαίνονται κάπως αξιολύπητοι να ξαπλώνουν εκεί, αλλά μετά καταφέρνουν σιγά σιγά να σηκωθούν ξανά».

Την περασμένη εβδομάδα, το αστυνομικό τμήμα του Λος Άντζελες χρησιμοποίησε στην πραγματικότητα ένα ρομπότ για να τερματίσει μια ένοπλη αντιπαράθεση.

Ένα μέλος της ομάδας SWAT έλεγχε εξ αποστάσεως το ρομπότ καθώς πλησίαζε το λεωφορείο και μπήκε από την είσοδο. Στη συνέχεια ταξίδεψε γύρω από το λεωφορείο, στέλνοντας στους αξιωματικούς ζωντανές ροές βίντεο.

Το ηχείο του ρομπότ χρησιμοποιήθηκε επίσης για να συνομιλήσει με τον άνδρα και να τον ενθαρρύνει να παραδοθεί. Μετά από περίπου μία ώρα και 45 λεπτά, ο τύπος ξύπνησε και βγήκε από το λεωφορείο, όπου συνελήφθη από την αστυνομία.

Η τεχνητή νοημοσύνη χρησιμοποιείται επίσης σε εναέρια drones. Το DroneSense  είναι μια πλατφόρμα λογισμικού για drone δημόσιας ασφάλειας που μετατρέπει τα ακατέργαστα δεδομένα που συλλέγονται από drones σε αξιόπιστες πληροφορίες για την αστυνομία, την πυροσβεστική και άλλο προσωπικό έκτακτης ανάγκης. Το DroneSense OpsCenter επιτρέπει σε πολλούς χρήστες drone να συνεργάζονται, να εξετάζουν τι παρατηρεί κάθε drone και ακόμη και να παρακολουθούν την πορεία πτήσης ενός drone σε πραγματικό χρόνο.

Εκατοντάδες ομάδες έχουν χρησιμοποιήσει την πλατφόρμα δημόσιας ασφάλειας DroneSense για να αντιμετωπίσουν μια σειρά από καταστάσεις δημόσιας ασφάλειας. Το πρόγραμμα με τεχνητή νοημοσύνη βοηθά τις ομάδες SWAT να αποκτήσουν ευφυΐα σκηνής, να αναλύουν ζημιές μετά από καταιγίδες και ανεμοστρόβιλους και ακόμη και να χρησιμοποιούν θερμικές εικόνες για τον εντοπισμό των αγνοουμένων.

Το Neurala  είναι ένα νευρωνικό δίκτυο βαθιάς μάθησης που βοηθά τα drones να αναζητούν και να εντοπίζουν άτομα που ενδιαφέρουν σε πλήθη. Μπορεί επίσης να ελέγξει τεράστιο βιομηχανικό εξοπλισμό, όπως πύργους τηλεφώνου και να παράγει μια αναφορά ζημιών σε πραγματικό χρόνο. Η νεοσύστατη εταιρεία λέει ότι το λογισμικό της με τεχνητή νοημοσύνη χρειάζεται μόλις 20 λεπτά για να αντιληφθεί την εικόνα ενός ατόμου, προκειμένου να σαρώσει τα πλήθη για ένα άτομο, αντί για τις ώρες ή τις ημέρες που ισχύουν για τον κλάδο.

Η Scale  χρησιμοποιεί τεχνητή νοημοσύνη και μηχανική μάθηση για να βοηθήσει στην εκπαίδευση των drones για εναέρια απεικόνιση. Το λογισμικό μηχανικής εκμάθησης βοηθά τα drones να αναγνωρίζουν, να επισημαίνουν και να χαρτογραφούν τα πάντα, από κατοικίες σε μια κοινότητα έως συγκεκριμένα αντικείμενα, όπως οχήματα.

Η AeroVironment  κατασκευάζει αυτόνομα στρατιωτικά drones που τροφοδοτούνται από AI. Τα drones της εταιρείας ποικίλλουν από ένα μη ανιχνευμένο κατασκοπευτικό αεροπλάνο μήκους τριών ποδιών μέχρι το Switchblade, το οποίο είναι εξοπλισμένο με ακριβές ωφέλιμο φορτίο επίθεσης για στρατιωτικές επιχειρήσεις.

Η Aerovironment κατασκευάζει μια ποικιλία από drones με τεχνητή νοημοσύνη για διάφορες στρατιωτικές εφαρμογές. Τα UAV της εταιρείας χρησιμοποιούνται επίσης στη γεωργία για τη χαρτογράφηση της έκτασης, τον εντοπισμό ανησυχιών για την υγεία των καλλιεργειών και την αξιολόγηση των δυσκολιών άρδευσης.

Ενώ η Τεχνητή Νοημοσύνη είναι προφανώς ένα χρήσιμο εργαλείο που μπορεί να χρησιμοποιηθεί για να ωφελήσει πάρα πολύ την ανθρωπότητα, είναι επίσης ένα επικίνδυνο όπλο που μπορεί να χρησιμοποιηθεί για να επιβληθεί ένα ολοκληρωτικό καθεστώς σε έναν πληθυσμό.

Ενώ τα πυρηνικά όπλα ήταν η υπαρξιακή απειλή για την ανθρωπότητα που έπρεπε να περιοριστεί από τον Ψυχρό Πόλεμο, η Τεχνητή Νοημοσύνη είναι τώρα η αναδυόμενη απειλή στην Εποχή της Πληροφορίας.

Θα χρειαστεί μια αναδυόμενη συνειδητοποίηση των πλεονεκτημάτων και των μειονεκτημάτων της τεχνητής νοημοσύνης, καθώς και η ανάπτυξη νέων θεσμών για τη διασφάλιση της διαφάνειας και της λογοδοσίας, προκειμένου να αποτραπεί η κατάχρηση της τεχνητής νοημοσύνης από πολιτικούς για την επιβολή καταπιεστικών καθεστώτων στην ανθρωπότητα.

 

 

 

Πηγή

Προβολές : 436


Μοίρασέ το:



Ετικέτες: , , ,

ΕΠΙΣΗΜΑΝΣΗ


Ορισμένα αναρτώμενα από το διαδίκτυο κείμενα ή εικόνες, θεωρούμε ότι είναι δημόσια. Αν υπάρχουν δικαιώματα συγγραφέων, παρακαλούμε ενημερώστε μας, για να τα αφαιρέσουμε. Επίσης, σημειώνεται ότι οι απόψεις του ιστολογίου, μπορεί να μην συμπίπτουν με τα περιεχόμενα του άρθρου. Για τα άρθρα που δημοσιεύονται εδώ, ουδεμία ευθύνη εκ του νόμου φέρουμε, καθώς απηχούν αποκλειστικά τις απόψεις των συντακτών τους και δεν δεσμεύουν καθ’ οιοδνήποτε τρόπο, το ιστολόγιο. Ο διαχειριστής του ιστολογίου, δεν ευθύνεται για τα σχόλια και τους δεσμούς που περιλαμβάνει. Τονίζουμε ότι υφίσταται μετριασμός των σχολίων και παρακαλούμε, πριν δημοσιεύσετε το σχόλιό σας, να έχετε υπόψη σας τα ακόλουθα:
  • Κάθε γνώμη είναι σεβαστή, αρκεί να αποφεύγονται ύβρεις, ειρωνείες, ασυνάρτητος λόγος και προσβλητικοί χαρακτηρισμοί, πολύ περισσότερο σε προσωπικό επίπεδο, εναντίον των συνομιλητών ή και των συγγραφέων, με υποτιμητικές προσφωνήσεις, ύβρεις, υπονοούμενα, απειλές ή χυδαιολογίες.>
  • Μην δημοσιεύετε άσχετα με το θέμα σχόλια.
  • Ο κάθε σχολιαστής, οφείλει να διατηρεί ένα μόνον όνομα ή ψευδώνυμο, το οποίο αποτελεί και την ταυτότητά του σε κάθε συζήτηση.
  • Με βάση τα παραπάνω, η διαχείριση, διατηρεί το δικαίωμα μη δημοσίευσης σχολίων, χωρίς καμία άλλη προειδοποίηση.
  • Επιπλέον σας τονίζουμε, ότι το ιστολόγιο, λειτουργεί σε εθελοντική βάση και ως εκ τούτου, τα σχόλια θα αναρτώνται μόλις αυτό καταστεί δυνατόν.

Διαβάστε ακόμα