Guerra de algoritmos
Tecnoloxía

Guerra de algoritmos

Cando se trata do uso da intelixencia artificial no exército, inmediatamente esperta o pesadelo da ciencia ficción, unha IA rebelde e mortal que se levanta contra a humanidade para destruíla. Desafortunadamente, os temores dos militares e dos líderes de que "o inimigo nos alcance" son igual de fortes no desenvolvemento de algoritmos de guerra.

Guerra algorítmicaque, segundo moitos, podería cambiar fundamentalmente a cara do campo de batalla tal e como o coñecemos, principalmente porque a guerra sería máis rápida, moi por diante da capacidade de decisión das persoas. xeneral americano Jack Shanahan (1), xefe do Centro Conxunto de Intelixencia Artificial dos Estados Unidos, subliña, non obstante, que antes de introducir a intelixencia artificial nos arsenais, debemos asegurarnos de que estes sistemas aínda están baixo control humano e non inician guerras por si sós.

"Se o inimigo ten máquinas e algoritmos, perderemos este conflito"

Capacidade de condución guerra algorítmica baséase no uso dos avances da tecnoloxía informática en tres áreas principais. Primeira décadas de crecemento exponencial da potencia de computaciónisto mellorou moito o rendemento da aprendizaxe automática. Segundo rápido crecemento dos recursos "Big data", é dicir, conxuntos de datos enormes, xeralmente automatizados, xestionados e creados de forma continua, axeitados para a aprendizaxe automática. A terceira preocupación rápido desenvolvemento das tecnoloxías de computación en nube, a través do cal os ordenadores poden acceder facilmente aos recursos de datos e procesalos para resolver problemas.

Algoritmo de guerratal e como o definen os expertos, primeiro debe expresarse con código informático. En segundo lugar, debe ser o resultado dunha plataforma capaz tanto de recoller información como de facer eleccións, tomando decisións que, polo menos en teoría, non requiren. intervención humana. En terceiro lugar, o que parece obvio, pero non necesariamente, pois só na acción queda claro se unha técnica destinada a outra cousa pode ser útil na guerra e viceversa, debe ser capaz de traballar en condicións. conflito armado.

Unha análise das direccións anteriores e a súa interacción demostra que guerra algorítmica non é unha tecnoloxía separada como, por exemplo. arma de enerxía ou mísiles hipersónicos. Os seus efectos son amplos e gradualmente vanse facendo omnipresentes nas hostilidades. Por primeira vez vehículos militares vólvense intelixentes, facendo potencialmente máis eficientes e eficaces as forzas de defensa que as implementan. Estas máquinas intelixentes teñen claras limitacións que hai que entender ben.

"", dixo Shanahan o pasado outono nunha entrevista co ex CEO de Google Eric Schmidt e o vicepresidente de asuntos internacionais de Google Kent Walker. "".

O borrador do informe do Consello de Seguridade Nacional dos Estados Unidos sobre a IA refírese a China máis de 50 veces, destacando o obxectivo oficial de China de converterse no líder mundial en IA para 2030.Ver tamén: ).

Estas palabras foron pronunciadas en Washington nunha conferencia especial que tivo lugar despois de que o citado Centro Shanakhan presentase ao Congreso o seu informe preliminar, elaborado en colaboración con recoñecidos expertos no campo da intelixencia artificial, entre os que se atopan o director de investigación de Microsoft Eric Horwitz, o CEO de AWS, Andy Jassa e Andrew Moore, investigador principal de Google Cloud. O informe final publicarase en outubro de 2020.

Os empregados de Google protestan

Hai uns anos, o Pentágono implicouse. guerra algorítmica e unha serie de proxectos relacionados coa IA no marco do proxecto Maven, baseados na colaboración con empresas tecnolóxicas, incluíndo Google e startups como Clarifai. Tratábase principalmente de traballar intelixencia artificialpara facilitar a identificación de obxectos sobre.

Cando se coñeceu a participación de Google no proxecto na primavera de 2018, miles de empregados do xigante de Mountain View asinaron unha carta aberta protestando contra a participación da compañía nas hostilidades. Despois de meses de axitación laboral Google adoptou o seu propio conxunto de regras para a IAque inclúe a prohibición de participar en eventos.

Google tamén se comprometeu a completar o contrato de Project Maven a finais de 2019. A saída de Google non rematou co proxecto Maven. Foi comprado pola Palantir de Peter Thiel. A Forza Aérea e o Corpo de Mariña dos Estados Unidos planean utilizar vehículos aéreos non tripulados especiais, como o Global Hawk, como parte do proxecto Maven, cada un dos cales se supón que supervisará visualmente ata 100 quilómetros cadrados.

Con motivo do que está a suceder ao redor do Proxecto Maven, quedou claro que o exército estadounidense necesita con urxencia a súa propia nube. Isto é o que dixo Shanahan durante a conferencia. Isto foi evidente cando as imaxes de vídeo e as actualizacións do sistema tiveron que ser transportadas por camión a instalacións militares espalladas polo campo. En edificio computación en nube unificada, que axudará a resolver problemas deste tipo, como parte dun proxecto de infraestrutura informática unificada para o exército Jedi, Microsoft, Amazon, Oracle e IBM. Google non é polos seus códigos éticos.

Da declaración de Shanahan queda claro que a gran revolución da IA ​​no exército non fai máis que comezar. E o papel do seu centro nas forzas armadas estadounidenses está crecendo. Isto vese claramente no orzamento estimado da JAIC. En 2019, sumou algo menos de 90 millóns de dólares. En 2020, xa debería ser de 414 millóns de dólares, ou preto do 10 por cento do orzamento de IA do Pentágono de 4 millóns de dólares.

A máquina recoñece un soldado rendido

As tropas estadounidenses xa están equipadas con sistemas como o Phalanx (2), que é un tipo de arma autónoma que se utiliza nos barcos da Armada dos Estados Unidos para atacar os mísiles que chegan. Cando se detecta un mísil, acendese automaticamente e destrúe todo o que está ao seu paso. Segundo Ford, pode atacar con catro ou cinco mísiles en medio segundo sen ter que pasar e mirar cada obxectivo.

Outro exemplo é o semiautónomo Harpy (3), un sistema comercial non tripulado. A arpía úsase para destruír os radares inimigos. Por exemplo, en 2003, cando os EUA lanzaron un ataque contra Iraq que tiña sistemas de interceptación de radar aerotransportados, os drons de fabricación israelí axudaron a atopalos e destruílos para que os estadounidenses puidesen voar con seguridade ao espazo aéreo iraquí.

3. Lanzamento do dron do sistema IAI Harpy

Outro exemplo coñecido de armas autónomas é Sistema coreano Samsung SGR-1, situada na zona desmilitarizada entre Corea do Norte e Corea do Sur, deseñada para identificar e disparar aos intrusos a unha distancia de ata catro quilómetros. Segundo a descrición, o sistema "pode ​​distinguir entre unha persoa que se rende e unha que non se rende" en función da posición das súas mans ou do recoñecemento da posición da arma nas súas mans.

4. Demostración da detección dun soldado que se rende polo sistema Samsung SGR-1

Os estadounidenses teñen medo de quedar atrás

Actualmente, polo menos 30 países de todo o mundo usan armas automáticas con diferentes niveis de desenvolvemento e uso da IA. China, Rusia e Estados Unidos ven a intelixencia artificial como un elemento indispensable para construír a súa futura posición no mundo. "Quen gañe a carreira de IA gobernará o mundo", dixo o presidente ruso Vladimir Putin aos estudantes en agosto de 2017. O presidente da República Popular Chinesa, Xi Jinping, non fixo declaracións tan destacadas nos medios, pero é o principal impulsor da directiva que pide que China se converta na forza dominante no campo da IA ​​para 2030.

Hai unha crecente preocupación nos Estados Unidos polo "efecto satélite", que demostrou que Estados Unidos está moi mal equipado para afrontar os novos desafíos que supón a intelixencia artificial. E isto pode ser perigoso para a paz, aínda que só sexa porque o país ameazado pola dominación poida querer eliminar a vantaxe estratéxica do inimigo doutro xeito, é dicir, pola guerra.

Aínda que o propósito orixinal do proxecto Maven era axudar a atopar loitadores islámicos do ISIS, a súa importancia para o desenvolvemento dos sistemas militares de intelixencia artificial é enorme. A guerra electrónica baseada en gravadores, monitores e sensores (incluíndo móbiles, voadores) está asociada a un gran número de fluxos de datos heteroxéneos, que só se poden utilizar de forma eficaz coa axuda de algoritmos de IA.

O campo de batalla híbrido converteuse versión militar de IoT, rico en información importante para avaliar ameazas e oportunidades tácticas e estratéxicas. Poder xestionar estes datos en tempo real ten grandes beneficios, pero non aprender desta información pode ser desastroso. A capacidade de procesar rapidamente o fluxo de información de varias plataformas que operan en múltiples áreas proporciona dúas vantaxes militares importantes: velocidade i accesibilidade. A intelixencia artificial permítelle analizar as condicións dinámicas do campo de batalla en tempo real e atacar de forma rápida e óptima, minimizando o risco para as súas propias forzas.

Este novo campo de batalla tamén é omnipresente e. A IA está no corazón dos chamados enxames de drons, que recibiron moita atención nos últimos anos. Coa axuda de sensores omnipresentes, non só permite que os drones naveguen por terreos hostís, senón que poden eventualmente permitir a formación de complexas formacións de varios tipos de vehículos aéreos non tripulados que operan en moitas áreas, con armas adicionais que permiten tácticas de combate sofisticadas, adaptándose inmediatamente ao inimigo. manobras para aproveitar o campo de batalla e informar de condicións cambiantes.

Os avances na orientación e navegación asistidas pola IA tamén están a mellorar as perspectivas de eficacia nunha ampla gama de sistemas de defensa táctica e estratéxica, especialmente a defensa de mísiles, mellorando os métodos de detección, seguimento e identificación de obxectivos.

aumenta constantemente o poder das simulacións e das ferramentas de xogo utilizadas para investigar armas nucleares e convencionais. O modelado masivo e a simulación serán esenciais para desenvolver un sistema integral multidominio de sistemas de obxectivos para o control de combate e misións complexas. A IA tamén enriquece as interaccións entre varias partes (5). A IA permite aos xogadores engadir e modificar variables do xogo para explorar como as condicións dinámicas (armamento, participación dos aliados, tropas adicionais, etc.) poden afectar o rendemento e a toma de decisións.

Para os militares, a identificación de obxectos é un punto de partida natural para a IA. En primeiro lugar, é necesaria unha análise completa e rápida do crecente número de imaxes e información recollidas de satélites e drons para atopar obxectos de importancia militar, como mísiles, movementos de tropas e outros datos relacionados coa intelixencia. Hoxe, o campo de batalla abrangue todas as paisaxes (mar, terra, aire, espazo e ciberespazo) a escala global.

Ciberespazocomo un dominio inherentemente dixital, é naturalmente axeitado para aplicacións de IA. No lado ofensivo, a IA pode axudar a atopar e orientar nodos de rede individuais ou contas individuais para recoller, interromper ou desinformar. Os ciberataques ás infraestruturas internas e ás redes de mando poden ser desastrosos. No que se refire á defensa, a IA pode axudar a detectar tales intrusións e atopar anomalías destrutivas nos sistemas operativos civís e militares.

Velocidade esperada e perigosa

Non obstante, a toma de decisións rápidas e a execución rápida poden non servirche ben. para unha xestión eficaz da crise. As vantaxes da intelixencia artificial e dos sistemas autónomos no campo de batalla poden non dar tempo á diplomacia, que, como sabemos pola historia, tivo moitas veces éxito como medio para previr ou xestionar unha crise. Na práctica, a desaceleración, a pausa e o tempo para negociar poden ser a clave para a vitoria, ou polo menos para evitar a catástrofe, especialmente cando están en xogo armas nucleares.

As decisións sobre a guerra e a paz non se poden deixar ás analíticas preditivas. Existen diferenzas fundamentais na forma en que se usan os datos con fins científicos, económicos, loxísticos e preditivos. comportamento humano.

Algúns poden percibir a IA como unha forza que debilita a sensibilidade estratéxica mutua e, polo tanto, aumenta o risco de guerra. Os datos corrompidos de forma accidental ou intencionada poden levar os sistemas de IA a realizar accións non desexadas, como identificar incorrectamente e apuntar a obxectivos incorrectos. A rapidez de acción postulada no caso do desenvolvemento de algoritmos bélicos pode significar unha escalada prematura ou mesmo innecesaria que impida a xestión racional da crise. Por outra banda, os algoritmos tampouco esperarán e explicarán, porque tamén se espera que sexan rápidos.

Aspecto perturbador funcionamento dos algoritmos de intelixencia artificial tamén presentada por nós recentemente en MT. Mesmo os expertos non saben exactamente como a IA conduce aos resultados que vemos na saída.

No caso dos algoritmos bélicos, non podemos permitirnos tal descoñecemento sobre a natureza e como os "pensan". Non queremos espertar no medio da noite con erupcións nucleares porque a "nosa" ou a "súa" intelixencia artificial decidiron que é hora de finalmente resolver o xogo.

Engadir un comentario