Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ.

το επόμενο χτύπημα θα γίνει από τον Κιμ μετά από αυτό θα περιμένουμε να ανοίξει και η τρίτη σφραγίδα

Δημοσ.

Πωπω μλκς λες και διαβάζω καρκίνο στο YouTube. Έλεος.

 

Από τα σχόλια καταλαβαίνει κανείς ότι είμαστε τριτοκοσμική ,τεχνοφοβική και οπισθοδρομική χώρα.

αυτα, λιγο ακομα και θα σταματησω να μπαινω ινσομνια παρα μονο για αγγελιες...μονο για εκει ειμαστε...

  • Like 2
Δημοσ.

Δεν ξέρω κατά πόσο καλά θα κάνουν την δουλειά τους αυτά τα αυτόνομα τανκς. Γιατί στον πόλεμο τα πράγματα είναι πολύ πιο περίπλοκα απο το αυτόνομο αμάξι.

 

Δεν νομίζω να καταφέρουν να ξεπεράσουν την ανθρώπινη αντίδραση κτλ. Καμία σχέση βασικά. Μπορεί να συμφέρει οικονομικά αλλά δεν νομίζω να έχει τα ίδια αποτελέσματα. Θα φανεί στο μέλλον αλλά εγώ είμαι αρνητικός πάνω στο θέμα.

Δημοσ.

Για πρώτη φορά τίθεται επί τάπητος στα Ηνωμένα Έθνη η χρήση αυτόνομων οπλικών συστημάτων, χωρίς ωστόσο αυτό να σημαίνει πως βρίσκεται κοντά η συμφωνία για μία σύμβαση απαγόρευσής τους. Αυτό δήλωσε ο Ινδός πρέσβης Amandeep Gill, επικεφαλής του Συνεδρίου για τον Αφοπλισμό που ξεκίνησε τη Δευτέρα και θα διαρκέσει 5 ημέρες.

Ακτιβιστές και επικεφαλής τεχνολογικών εταιρειών όπως ο Elon Musk έχουν ταχθεί υπέρ της απαγόρευσής τους, θεωρώντας ότι εγκυμονούν πολύ μεγάλους κινδύνους για τις ζωές αμάχων. “Θα ήταν πολύ εύκολο να θεσπισθεί απλώς η απαγόρευση, ωστόσο νομίζω πως δεν είναι συνετό να βιαστούμε για ένα τόσο περίπλοκο θέμα. Βρισκόμαστε στην αρχή”, ανάφερε ο Gill στους δημοσιογράφους.

 

Όπως πρόσθεσε, οι διαβουλεύσεις, στις οποίες θα πάρουν επίσης μέρος τεχνολογικές εταιρείες και κινήσεις πολιτών, θα επικεντρωθούν εν μέρει στην κατανόηση του είδους των οπλικών συστημάτων που βρίσκονται στα σκαριά.

 

Οι υπέρμαχοι της απαγόρευσης υποστηρίζουν πως είναι εξ ορισμού παράνομο οποιοδήποτε σύστημα εξουσιοδοτεί κάποιον αλγόριθμο για να αποφασίσει αν θα επιτεθεί, αφού οι υπολογιστές δεν θεωρούνται υπόλογοι στο διεθνές ανθρωπιστικό δίκαιο.

 

Ο Gill σημείωσε πως τα κράτη συμφωνούν πως θα πρέπει ο άνθρωπος να λαμβάνει τις αποφάσεις. Ωστόσο, υπάρχουν διαφορετικές εκτιμήσεις σχετικά με τον τρόπο με τον οποίο θα ασκείται “ανθρώπινος έλεγχος” σε αυτά τα οπλικά συστήματα.

 

Link.png Site: Seeker

Πέρα από τις συνήθεις χαζομάρες που γράφονται εδώ, αυτό είναι το ζουμί της είδησης.

Η, σχεδόν, απόλυτη ικανότητα ελέγχου του μέσου από την ηγεσία, στρατηγική επιλογή χρήσης όπλων και όχι εναπόθεση στην κρίση του αυτοματοποιημένου μέσου.

Όπως στα 60s έγινε η επιλογή για συνέχιση χρήσης στρατηγικών βομβαρδιστικών έναντι της ολοκληρωτικής αντικατάστασης των από βαλλιστικούς πυραύλους.

Αυτό διότι κατάλαβαν ότι τέτοια συστήματα δεν γίνεται να ελεγχθούν αποτελεσματικά από τις κλασσικές στρατιωτικές δομές και ως εκ τούτου θα ήταν όπλα τελευταίας λύσης, αν και φυσικά η ΑΙ θα είναι αρκετά βήματα παραπάνω από τα απλά αναλογικά ηλεκτρονικά των τότε συστημάτων, έχουν μεγάλο εγγενή παράγοντα αποτυχίας συμμόρφωσης.

Κάτι που κανένας δεν ήθελε και προφανώς δεν θέλουν.

 

Στο θέμα του GAI, τα είπαμε και αλλού, ακόμη και εάν δεν την οπλοποιήσουν, οι αλλαγές θα είναι απλά αφάνταστες...

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...