Η κυβέρνηση των ΗΠΑ προσπαθεί ακόμη να συγκεντρώσει πληροφορίες σχετικά με δημοσίευμα δυο ισραηλινών ΜΜΕ, σύμφωνα με το οποίο ο στρατός του Ισραήλ (IDF) βασίστηκε στο «Lavender», ένα πρόγραμμα που χρησιμοποιεί τεχνητή νοημοσύνη για να προσδιοριστούν δεκάδες χιλιάδες στόχοι βομβαρδισμών στη Λωρίδα της Γάζας, δήλωσε χθες Πέμπτη (4.4.2024) ο εκπρόσωπος του συμβουλίου εθνικής ασφαλείας του Λευκού Οίκου, ο Τζον Κέρμπι, στο CNN.
Η Ουάσιγκτον δεν έχει ακόμη επαληθεύσει το περιεχόμενο του δημοσιεύματος των +972 Magazine και Local Call, είπε ο κ. Κέρμπι.
Το ρεπορτάζ επικαλείται έξι αξιωματικούς των ισραηλινών υπηρεσιών πληροφοριών οι οποίοι ενεπλάκησαν στη δημιουργία ή τη χρήση του προγράμματος «Lavender».
Εξηγεί πως ο ισραηλινός στρατός όρισε δεκάδες χιλιάδες στόχους με το πρόγραμμα που χρησιμοποιεί τεχνητή νοημοσύνη, με ελάχιστη ανθρώπινη παρέμβαση.
Ως και 37.000 Παλαιστίνιοι θεωρήθηκαν εξτρεμιστές ή δυνητικά εξτρεμιστές και προγράφτηκαν, εξηγεί.
Truly jaw-dropping reporting here on how the Israeli army has marked tens of thousands of Gazans as suspects, using an AI targeting system with little human oversight & a permissive policy on casualties. Must-read. https://t.co/mexziNBdI4
— Hümeyra Pamuk (@humeyra_pamuk) April 4, 2024
Ο ισραηλινός στρατός αρνείται πως βασίστηκε σε πρόγραμμα με τεχνητή νοημοσύνη για να ορίσει τους στόχους των βομβαρδισμών του.
Επέμεινε, σε δελτίο Τύπου που δημοσιοποίησε, πως «δεν χρησιμοποιεί σύστημα τεχνητής νοημοσύνης για να αναγνωρίζει τρομοκράτες ή να προσπαθεί να προβλέψει αν κάποιος είναι τρομοκράτης», προσθέτοντας πως «τα συστήματα πληροφορικής είναι απλά εργαλεία των αναλυτών στη διαδικασία αναγνώρισης των στόχων».
Σύμφωνα με το δελτίο Τύπου, προβλέπεται πως αναλυτές κάνουν με ανεξάρτητο τρόπο εξέταση των δεδομένων για να επαληθεύσουν αν οι στόχοι που αναγνωρίζονται εκπληρώνουν τα κριτήρια.
Ωστόσο πηγή του περιοδικού επέμεινε στο ότι το προσωπικό απλά βάζει «σφραγίδα» στα αποτελέσματα της στοχοποίησης από την τεχνητή νοημοσύνη του προγράμματος «Lavender», εξηγώντας πως συνήθως κάποιος ασχολείται με τον στόχο «κάπου 20 δευτερόλεπτα» απλά για «να σιγουρευτεί ότι πρόκειται για άνδρα», παρότι το πρόγραμμα είναι «γνωστό πως κάνει ‘λάθη’» που φθάνουν ως και «το 10% των περιπτώσεων».
Οι στόχοι βομβαρδίζονταν συστηματικά «ενώ βρίσκονταν σπίτια τους», κάτι που ήταν βέβαιο ότι θα προκαλούσε θανάτους αμάχων, συμπλήρωσε.
Is Israel using AI to identify targets in Gaza war?https://t.co/1TCZgPpmo7
— Channel 4 News (@Channel4News) April 4, 2024
Ο εκπρόσωπος του ΣΕΑ της αμερικανικής προεδρίας Κέρμπι είπε εξάλλου στο CNN, ερωτηθείς σχετικά, πως θεωρεί «ευπρόσδεκτη» εξέλιξη το άνοιγμα του σημείου διέλευσης Έρετς για την παράδοση περισσότερης ανθρωπιστικής βοήθειας στους αμάχους στον παλαιστινιακό θύλακο.
Πηγές: Με πληροφορίες από Reuters / ΑΠΕ-ΜΠΕ