A pantasma do asasino da máquina continúa. En que cre o presidente Putin?
Tecnoloxía

A pantasma do asasino da máquina continúa. En que cre o presidente Putin?

Os defensores dos robots militares (1) argumentan que as armas automatizadas ofrecen máis opcións para protexer a vida humana. As máquinas son capaces de achegarse máis ao inimigo que os soldados e avaliar correctamente a ameaza. E ás veces as emocións paralizan a capacidade de tomar as decisións correctas.

Moitos defensores dos robots asasinos están convencidos de que farán as guerras menos sanguentas porque morrerán menos soldados. Observan que os robots, aínda que non senten pena, son inmunes a emocións humanas negativas como o pánico, a rabia e a vinganza, que adoitan levar a crimes de guerra.

Os activistas dos dereitos humanos tamén usan o argumento de que o exército levou a unha enorme redución de vítimas civís durante o último medio século, e a robotización do exército permite un mecanismo para facer cumprir as leis da guerra de forma máis estrita. Afirman que as máquinas converteranse en éticas cando estean equipadas cun software que as obrigará a obedecer as leis da guerra.

Por suposto, un gran número de persoas, incluídas as moi famosas, non comparten esta opinión durante anos. En abril de 2013 lanzouse unha campaña internacional baixo o lema (2). No seu marco, as organizacións non gobernamentais reclaman a prohibición total do uso de armas autónomas. Expertos de moitos países sentáronse por primeira vez para discutir este tema na Conferencia de Desarme da ONU en Xenebra en maio de 2014. Un informe publicado uns meses despois por Human Rights Watch e científicos da Universidade de Harvard dicían que os autónomos serían demasiado perigosos: elixiron os seus propios obxectivos e mataban persoas. Ao mesmo tempo, non está moi claro quen debe ser responsable.

2. Demostración como parte da acción "Stop killer robots"

O que pode facer un enxame de pequenos drones

As disputas en torno aos robots asasinos (ROU) levan anos ocorrendo e non desaparecen. Os últimos meses trouxeron novos intentos de deter robots militares e unha onda de informes de novos proxectos deste tipo, algúns dos cales incluso se están a probar en condicións reais de combate.

En novembro de 2017, un vídeo que mostra enxames mortais de mini-drones ., en acción aterradora. Os espectadores viron que xa non necesitamos as pesadas máquinas de guerra, tanques ou foguetes lanzados polos Predators para matar en masa e con metralladoras. O director principal Stuart Russell, profesor de intelixencia artificial en Berkeley, di:

-

A pasada primavera cincuenta profesores As principais universidades do mundo asinaron un chamamento ao Instituto Coreano de Ciencia e Tecnoloxía Avanzada (KAIST) e ao seu socio Hanwha Systems. anunciaron que non cooperarían coa universidade e acollerían invitados de KAIST. O motivo foi a construción de "armamento autonómico" levada a cabo por ambas institucións. KAIST negou os informes dos medios.

Pouco despois nos EUA máis de 3 empregados de Google protestou contra o traballo da empresa para os militares. Preocupábanlles que Google se asociase cun proxecto gobernamental chamado Maven que pretende utilizar a intelixencia artificial para recoñecer obxectos e rostros en vídeos de drones militares. A dirección da empresa asegura que o obxectivo de Maven é salvar vidas e salvar á xente de traballos tediosos, non de agresións. Os manifestantes non estaban convencidos.

A seguinte parte da batalla foi a declaración expertos en intelixencia artificial, incl. traballando nun proxecto de Google e Elon Musk. Prometen non desenvolver robots. Tamén piden aos gobernos que intensifiquen os esforzos para regular e limitar estas armas.

O comunicado di, en parte, que "a decisión de tomar unha vida humana nunca debe ser tomada por unha máquina". Aínda que os exércitos do mundo están equipados con moitos dispositivos automáticos, ás veces cun alto grao de autonomía, moitos expertos temen que no futuro esta tecnoloxía poida chegar a ser completamente autónoma, permitindo matar sen ningunha intervención dun operador humano e comandante.

Os expertos tamén advirten de que as máquinas de matar autónomas poderían ser aínda máis perigosas que as "armas nucleares, químicas e biolóxicas" porque poden descontrolarse facilmente. En total, en xullo do ano pasado, 170 organizacións e 2464 persoas asinaron unha carta baixo os auspicios do Future of Life Institute (FGI). Nos primeiros meses de 2019, un grupo de científicos médicos afiliados á FLI pediu de novo unha nova carta que prohibise o desenvolvemento de armas controladas por intelixencia artificial (IA).

A reunión da ONU en agosto do ano pasado en Gniewo sobre a posible regulación legal dos "robots asasinos" militares rematou con éxito... máquinas. Un grupo de países, entre eles Estados Unidos, Rusia e Israel, bloquearon o traballo adicional sobre a introdución dunha prohibición internacional destas armas (proxecto de Convención sobre a prohibición ou restrición do uso de determinadas armas convencionais, CCW). Non é casual que estes países sexan coñecidos polo seu traballo en sistemas avanzados de armas autónomas e robóticas.

Rusia céntrase nos robots de combate

O presidente Vladimir Putin adoita dicir sobre os sistemas militares de intelixencia artificial e os robots de combate:

-.

fala abertamente do desenvolvemento de armas autónomas. O xefe do Estado Maior das súas forzas armadas, o xeneral Valery Gerasimov, dixo recentemente á axencia de noticias militar Interfax-AVN que o uso de robots será unha das principais características das futuras guerras. Engadiu que Rusia está intentando automatiza totalmente o campo de batalla. Comentarios similares fixeron o viceprimeiro ministro Dmitry Rogozin e o ministro de Defensa, Sergei Shoigu. O presidente do Comité de Defensa e Seguridade do Consello da Federación, Viktor Bondarev, dixo que Rusia está a esforzarse por desenvolver Tecnoloxías Rojuisto permitiría que as redes de drons funcionen como unha única entidade.

Isto non é de estrañar se lembramos que os primeiros teletanques foron desenvolvidos na Unión Soviética nos anos 30. Utilizáronse ao comezo da Segunda Guerra Mundial. Hoxe Rusia tamén está a crear robots de tanque ser cada vez máis autónomo.

O estado de Putin enviou recentemente o seu a Siria Vehículo de combate non tripulado Uran-9 (3). o aparello perdeu o contacto cos puntos de control terrestre, tivo problemas co sistema de suspensión e as súas armas non funcionaron perfectamente e non alcanzou obxectivos en movemento. Non parece moi serio, pero moitos consideran que a limpeza siria é unha boa proba de combate que permitirá aos rusos mellorar a máquina.

Roscosmos aprobou un plan preliminar para enviar dous robots á Estación Espacial Internacional en agosto deste ano. Fedor (4) na Unión non tripulada. Non como unha carga, pero. Como na película RoboCop, Fedor empuña un arma e demostra unha puntería mortal durante os exercicios de tiro.

A pregunta é, por que se armaría un robot no espazo? Hai sospeitas de que o asunto non está só en aplicacións terrestres. Mentres tanto, na Terra, o fabricante ruso de armas Kalashnikov mostrou unha visualización robot Igoreko que, aínda que causou moitas risas, sinala que a empresa está a traballar seriamente nos vehículos de combate autónomos. En xullo de 2018, Kalashnikov anunciou que estaba a construír unha arma que usa para tomar decisións de "disparar ou non disparar".

A esta información hai que engadir informes de que o armeiro ruso Digtyarev desenvolveu un pequeno tanque autónomo Nerekht que pode moverse silenciosamente cara ao seu obxectivo por si só e despois explotar cunha forza poderosa para destruír outros edificios ou edificios enteiros. Así como Tanque T14 Exército , o orgullo das forzas armadas rusas, foi deseñado para un posible control remoto e condución non tripulada. Sputnik afirma que os enxeñeiros militares rusos están a traballar para facer do T-14 un vehículo blindado totalmente autónomo.

Directiva de obxección

O propio exército estadounidense impuxo un límite bastante claro ao nivel de autonomía das súas armas. En 2012, o Departamento de Defensa dos Estados Unidos emitiu a Directiva 3000.09, que establece que os humanos deben ter dereito a opoñerse ás accións dos robots armados. (aínda que pode haber algunhas excepcións). Esta directiva segue vixente. A política actual do Pentágono é que o factor decisivo no uso das armas debe ser sempre unha persoa, e ese xuízo debe ser. cumpre coas leis da guerra.

Aínda que os estadounidenses levan décadas usando voadoras, Predator, Reaper e moitas outras supermáquinas, non eran nin son modelos autónomos. Son controlados por operadores a distancia, ás veces desde unha distancia de varios miles de quilómetros. Coa estrea do prototipo comezou unha acalorada discusión sobre a autonomía das máquinas deste tipo. dron X-47B (5), que non só voaba de forma independente, senón que tamén podía despegar dun portaavións, aterrar nel e repostar no aire. O significado tamén é disparar ou bombardear sen intervención humana. Non obstante, o proxecto aínda está en fase de proba e revisión.

5. Probas do X-47B non tripulado nun portaavións estadounidense

En 2003, o Departamento de Defensa comezou a experimentar cun pequeno robot semellante a un tanque. SPOES equipado cunha ametralladora. En 2007 foi enviado a Iraq. con todo, o programa rematou despois de que o robot comezase a comportarse de forma errática, movendo o rifle de forma errática. Como resultado, o exército estadounidense abandonou a investigación sobre robots terrestres armados durante moitos anos.

Ao mesmo tempo, o exército dos Estados Unidos aumentou o seu gasto en operacións de 20 millóns de dólares en 2014 a 156 millóns de dólares en 2018. En 2019, este orzamento xa saltou a 327 millóns de dólares. Trátase dun aumento acumulado do 1823% en poucos anos. Os expertos din que xa en 2025, o exército estadounidense pode ter un campo de batalla máis soldados robot que humanos.

Recentemente, o exército dos Estados Unidos provocou e anunciou moita polémica Proxecto ATLAS () - automático. Nos medios de comunicación, isto foi considerado como unha violación da mencionada directiva 3000.09. Porén, o exército estadounidense nega e asegura que a exclusión dunha persoa do ciclo de toma de decisións está fóra de discusión.

A IA recoñece os tiburóns e os civís

Porén, os defensores das armas autonómicas teñen novos argumentos. prof. Ronald Arkin, un roboticista do Instituto Tecnolóxico de Xeorxia, afirma nas súas publicacións que Na guerra moderna, as armas intelixentes son esenciais para evitar vítimas civís, xa que as técnicas de aprendizaxe automática poden axudar de xeito eficaz a distinguir entre combatentes e civís, e obxectivos importantes e sen importancia.

Un exemplo de tales habilidades de IA é patrullar as praias australianas. drones Little Ripperequipado co sistema SharkSpotter desenvolvido pola Universidade Tecnolóxica de Sydney. Este sistema escanea automaticamente a auga en busca de tiburóns e avisa ao operador cando ve algo inseguro. (6) Pode identificar persoas, golfiños, barcos, táboas de surf e obxectos na auga para distinguilos dos tiburóns. Pode detectar e identificar unhas dezaseis especies diferentes con gran precisión.

6. Tiburóns recoñecidos no sistema SharkSpotter

Estes métodos avanzados de aprendizaxe automática aumentan a precisión do recoñecemento aéreo en máis dun 90%. A modo de comparación, un operador humano nunha situación similar recoñece con precisión o 20-30% dos obxectos nas fotografías aéreas. Ademais, a identificación aínda é verificada por un humano antes dunha alarma.

No campo de batalla, o operador, ao ver a imaxe na pantalla, dificilmente pode determinar se as persoas no chan son loitadores con AK-47 nas súas mans ou, por exemplo, agricultores con picas. Arkin sinala que as persoas tenden a "ver o que queren ver", especialmente en situacións estresantes. Este efecto contribuíu ao derrubamento accidental dun avión iraniano polo USS Vincennes en 1987. Por suposto, na súa opinión, as armas controladas pola IA serían mellores que as actuais "bombas intelixentes", que non son realmente sensibles. En agosto pasado, un mísil guiado por láser saudita alcanzou un autobús cheo de escolares en Iemen, causando a morte de corenta nenos.

"Se un autobús escolar está correctamente etiquetado, identificalo nun sistema autónomo pode ser relativamente sinxelo", argumenta Arkin en Popular Mechanics.

Non obstante, estes argumentos non parecen convencer aos activistas contra os asasinos automáticos. Ademais da ameaza dos robots asasinos, hai que ter en conta outra circunstancia importante. Incluso un sistema "bo" e "atento" pode ser pirateado e asumido por persoas moi malas. Entón todos os argumentos en defensa do equipamento militar perden a súa forza.

Engadir un comentario