Intelixencia artificial
Tecnoloxía

Intelixencia artificial

Actualmente, unha rede neuronal profunda resolve un cubo de Rubik en 1,2 segundos. Para conseguir este resultado, a principios dos séculos XIII e IV creáronse as máquinas lóxicas de Ramón Lull. Neste artigo, aprenderás paso a paso o que pasou ao longo dos séculos.

Séculos XIII-IV filósofo español Ramón Lully (1) desenvolvemento máquinas lóxicas. Describiu as súas máquinas como obxectos mecánicos que podían conectar verdades básicas e innegables mediante operacións lóxicas sinxelas realizadas pola máquina con marcadores mecánicos.

30-50 anos. século XX Así o demostran investigacións no campo da neurociencia. Norbert Wiener describe o control cibernético e a resiliencia en redes eléctricas. Claude Shannon crea a teoría da "información descrita por sinais dixitais".

1936 , cuxo obxectivo era resolver o problema de solubilidade presentado por David Hilbert en 1928, iso foi o que introduciu nel coche abstractocapaz de realizar unha operación matemática programada, é dicir, un algoritmo.

A máquina só podía realizar un algoritmo en particular, como cadrar un número, dividir, sumar e restar. No meu propio traballo Turing describiu moitas máquinas deste tipo, que adquiriron o nome común Máquinas de Turing. Unha extensión deste concepto foi a chamada máquina universal de Turing, que, dependendo das instrucións gravadas na cinta, debía realizar calquera operación (2).

2. Un dos modelos da máquina de Turing

1943 Warren McCulloch i Walter Pitts móstrao neurona artificial pode simular operacións sinxelas creando un modelo rede neuronal. O seu modelo baseábase unicamente en matemáticas e algoritmos e non se puido probar por falta de recursos informáticos.

1950 No seu texto titulado "Computer Science and Intelligence", publicado na revista Mind, Alan M. Turing por primeira vez presenta a proba, entón chamada "proba de Turing". Este é o xeito de definir capacidade da máquina para usar a linguaxe natural e indirectamente pretendía demostrar que dominara a capacidade de pensar do mesmo xeito que unha persoa.

1951 Marvin Minsky Oraz Decano Edmonds eles constrúen SNARK (inglés), primeira rede neuronal artificial con 3 mil tubos de baleiro. A máquina fixo o papel dunha rata, que está a buscar unha saída do labirinto para chegar á comida. O sistema permitiu seguir todos os movementos da "rata" no labirinto. Un erro de deseño permitiu que máis dunha "rata" fose introducida alí, e as "ratas" comezaron a interactuar entre si. Os moitos intentos que fixeron permitíronlles comezar a “pensar” con base lóxica, e iso axudou a reforzar a elección correcta. As "ratas" máis avanzadas foron seguidas por outras "ratas".

1955 Allen Newell e (futuro premio Nobel) Herbert A. Simon compoñer o teórico da lóxica. En definitiva, o programa proba 38 dos primeiros 52 enunciados de Principia Mathematica. Russell i cabeza branca, atopando probas novas e máis elegantes para algúns.

1956 Nace o termo "". Utilizouse por primeira vez nunha conferencia organizada polo Dartmouth College de New Hampshire (3). O novo concepto definiuse como "un sistema que percibe e responde conscientemente ao seu entorno para maximizar as súas posibilidades de éxito". Entre os organizadores do evento estaban, entre eles Marvin Minsky, John McCarthy e dous científicos superiores: Claude Shannon i Nathan Rochester z IBM.

. Membros da Conferencia de Dartmouth de 1956 De esquerda a dereita: Marvin Minsky e Claude Shannon.

1960 construción redes electroquímicas elementos de aprendizaxe denominados Adaline. Construído Bernard Widrow da Universidade de Stanford, a rede consistía en elementos individuais de Adaline que, cando se reproducían e combinaban, producían dixo Madalyn (Eng. Moitas Adalines). Foi o primeiro neurocomputadora ofrecido comercialmente. A rede Madaline é utilizada por radares, sonares, módems e liñas telefónicas.

1966 sobe Programa ELIZA, un prototipo de chatbot probado no MIT. Foi deseñado dun xeito sinxelo: convertía as frases declarativas dadas polo usuario en preguntas e incitaba a obter máis declaracións. Por exemplo, cando un usuario dixo: "Teño dor de cabeza", o programa preguntou: "Por que che doe a cabeza?" ELIZA utilizouse con éxito no tratamento de persoas con trastornos mentais..

1967 En Xapón, a Universidade de Waseda comezou Proxecto VABOT (4) en 1967 por primeira vez no mundo Robot humanoide intelixente de tamaño completo. O seu sistema de control das extremidades permitíalle camiñar cos seus membros inferiores, así como coller e mover obxectos coas mans mediante sensores táctiles. O seu sistema de visión permitiulle medir distancias e direccións a obxectos utilizando receptores externos, ollos e oídos artificiais. E o sistema de conversación permitiulle comunicarse cunha persoa en xaponés usando beizos artificiais.

1969 Marvin Minsky i Seymour Papert mostrar restricións de perceptron. O seu libro contiña probas formais de que as redes dunha soa capa tiñan un abano de aplicacións moi limitado, o que provocou un estancamento nesta área de investigación. Este estado de cousas continuou durante uns 15 anos ata que se publicaron unha serie de publicacións nas que se demostra de forma moi convincente que as redes non lineais están libres das limitacións mostradas en traballos anteriores. Anunciouno no seu momento unha serie de métodos de aprendizaxe automática para redes multicapa.

1973 Edward Shortliff, médico e informático, creou Programa MAISIN, un dos primeiros sistemas expertos para o diagnóstico do tratamento das infeccións bacterianas, baseado no diagnóstico de enfermidades do sangue a partir dos resultados das probas e do cálculo das doses correctas de antibióticos.

Na década de 70, a maioría dos médicos necesitaban asesoramento especializado antes de prescribir antibióticos a un paciente. Cada antibiótico afectaba a un determinado grupo de microorganismos, pero tamén provocaba certos efectos secundarios. Non obstante, o coñecemento deste tema entre os médicos comúns non era grande. É por iso que a Facultade de Medicina da Universidade de Stanford, un centro de investigación de renome mundial no campo dos antibióticos, recorreu aos especialistas informáticos para pedir axuda. Así, creouse un sistema de asesoramento, que consistía nunha ampla base de datos e 500 principios para axudar aos médicos a utilizar correctamente os antibióticos.

1975 Paul Werbos inventa a retropropagación que resolveu o problema e as limitacións das redes de capa única e en xeral feita adestra as redes neuronais de forma máis eficiente.

80 coñecidos como "sistemas expertos", e o coñecemento converteuse no foco da investigación xeral sobre IA. En lugar de centrarse na intelixencia xeral, os sistemas expertos centráronse en utilizar un conxunto de principios para automatizar tarefas específicas e tomar decisións específicas no mundo real.

A primeira solución exitosa, coñecida como RI, foi introducida por Digital Equipment Corporation para personalizar os pedidos da empresa e mellorar a precisión. Non obstante, Apple e IBM pronto introduciron computadoras mainframe con máis potencia de procesamento que as utilizadas para o mantemento. Intelixencia artificial, perturbando a industria da IA. Isto detivo de novo o investimento en IA.

1988 Investigadores de IBM publicaron un traballo que presenta os principios de probabilidade na tradución automática do francés ao inglés. Este enfoque, máis próximo a iso, sentou as bases para a tecnoloxía de aprendizaxe automática actual.

1989 Aparece ELVIN (), que foi o resultado de oito anos de investigación financiada con fondos militares no CMU Robotics Institute (5). Pódese considerar o antepasado de hoxe. A implementación de ALVINN procesou datos de dúas fontes: unha cámara de vídeo e un telémetro láser. Era un sistema perceptivo que aprendía a controlar os vehículos observando ao condutor. usouno rede neuronal e tomar decisións sen mapa.

5. Vehículo con Sistema Autónomo ALVINN

Anos sesenta. No mundo da IA, estase adoptando un novo paradigma chamado "axentes intelixentes". Perla de Xudea, Allen Newell, Leslie P. Kelbling e outros propuxeron aplicar a teoría da decisión e a economía á investigación en intelixencia artificial.

1997 Deep Blue creado por IBM vence ao gran mestre con Garrim Kasparov (6). A supercomputadora era unha versión especializada da plataforma creada por IBM e podía manexar o dobre de movementos por segundo que no primeiro xogo (que a máquina perdeu), segundo os informes, 200 millóns de movementos por segundo.

6. Partido Garry Kasparov contra Deep Blue

1998 Catro millóns van ás árbores de Nadal Robots de orella Furbyque eventualmente aprenderá inglés.

2002-09 En 2002, DARPA desafiou ao mundo. tecnoloxías intelixentes: 140 millóns de dólares para que os construtores conduzan 18 millas polo deserto de Mojave. 2005 7 de maio Stanley (XNUMX) participou no Grand Challenge, armado con láseres, radar, cámara de vídeo, receptor GPS, seis procesadores e unha arquitectura de software integrada, e gañou. O coche estivo exposto dende entón no Museo Nacional de Historia Americana do Smithsonian. Xunto con Stanley na historia Intelixencia artificial Equipo de deseño da Universidade de Stanford dirixido polo Prof. Sebastian Thrun, que entón era xefe do coche autónomo de Google, creado en 2009.

2005 Honda presenta a Asimo robot humanoide camiñando sobre dúas patas (oito). Durante o seu desenvolvemento obtivéronse datos que se utilizaron, por exemplo, no deseño de próteses que permitan o desprazamento das persoas maiores.

2011 O supercomputador Watson de IBM, que en 2011 venceu aos entón mestres no programa de xogos "Jeopardy" (emitido en Polonia co nome de "Va Banque").

2016 Programa informático AlphaGo creada por unha das empresas de Google, supera a Lee Sedol, 18 veces campión do mundo en Go (9).

9. Partido entre Go Li Sedol e AlphaGo

2018 Google e o Instituto Allen de Intelixencia Artificial crean BERT, "a primeira representación lingüística bidireccional non supervisada que se pode usar para unha variedade de tarefas de linguaxe natural mediante a transferencia de coñecemento". BERT é unha intelixencia artificial que pode completar as partes que faltan das frases do mesmo xeito que un humano. BERT é un dos desenvolvementos máis emocionantes no campo do procesamento da linguaxe natural (PNL), un campo da intelixencia artificial que se está a desenvolver con especial rapidez nos últimos anos. Grazas a el, achegouse moito o día no que podemos falar coa máquina.

2019 A rede neuronal profunda recibe o nome , creado por científicos da Universidade de California, ela recolleu o cubo de Rubik durante 1,2 segundos, case tres veces máis rápido que a persoa máis hábil. De media, necesita uns 28 movementos, mentres que unha persoa realiza unha media de 50 movementos.

Clasificación e aplicacións da intelixencia artificial

I. A intelixencia artificial ten dous significados principais:

  • é unha intelixencia hipotética realizada mediante un proceso de enxeñería, non natural;
  • é o nome dunha tecnoloxía e campo de investigación en informática que tamén se basea nos avances da neurociencia, as matemáticas, a psicoloxía, a ciencia cognitiva e a filosofía.

II. Na literatura sobre este tema, hai tres graos principais de IA:

  1. Intelixencia artificial estreita (, ANI) que se especializa só nunha área, como AlphaGo, que é unha IA capaz de derrotar a un campión no xogo de Go. Non obstante, isto é o único que pode facer.
  2. Intelixencia artificial xeral (, AGI) -coñecida como intelixencia artificial forte, referíndose a un ordenador do nivel intelectual dunha persoa media- capaz de realizar calquera tarefa que realice. Segundo moitos expertos, estamos no camiño de crear un AGI eficaz.
  3. superintelixencia artificial (, COMO I). O teórico de IA de Oxford Nick Bostrom define a superintelixencia como "intelixencia moito máis intelixente que as mentes humanas máis intelixentes en practicamente todos os aspectos, incluíndo a creatividade científica, o coñecemento xeral e as habilidades sociais".

III. Aplicacións prácticas modernas da IA:

  • Tecnoloxías baseadas na lóxica difusa – adoita utilizarse, por exemplo, para controlar o progreso dos procesos tecnolóxicos nas fábricas en condicións de “ausencia de todos os datos”.
  • Sistemas expertos - Sistemas que utilizan a base de coñecemento e os mecanismos de inferencia para resolver problemas.
  • Tradución automática de textos – os sistemas de tradución non están adaptados aos humanos, están intensamente desenvolvidos e son especialmente axeitados para traducir textos técnicos.
  • Redes neuronais - usado con éxito en moitas aplicacións, incluíndo a programación de "opoñentes intelixentes" en xogos de ordenador.
  • Aprendizaxe automática Unha rama da intelixencia artificial que se ocupa de algoritmos que poden aprender a tomar decisións ou adquirir coñecementos.
  • Recollida de datos – Debate áreas, relación coas necesidades de información, adquisición de coñecementos, métodos de análise aplicados, resultados esperados.
  • Recoñecemento de imaxes - Xa están en uso programas que recoñecen persoas a partir dunha fotografía dun rostro ou recoñecen automaticamente obxectos seleccionados en fotografías de satélite.
  • Recoñecemento de fala e recoñecemento de falantes xa é moi utilizado comercialmente.
  • Recoñecemento de caligrafía (OCR) - xa se usa a gran escala, por exemplo, para a clasificación automática de letras e en blocs de notas electrónicos.
  • creatividade artificial - existen programas que xeran automaticamente formas poéticas breves, compoñen, arranxan e interpretan obras musicais que poden efectivamente "confundir" mesmo a artistas profesionais para que non consideren as obras creadas artificialmente.
  • Úsase habitualmente en economía sistemas automaticamente avaliando, incluída a solvencia, o perfil dos mellores clientes ou a planificación de campañas publicitarias. Estes sistemas adestran de forma automática con antelación en función dos datos dos que dispoñen (por exemplo, os clientes bancarios que pagan habitualmente o préstamo e os clientes que tiveron problemas con el).
  • Interfaces intelixentes - utilízase para o control automatizado, seguimento, elaboración de informes e intentos de resolución de posibles problemas nos procesos tecnolóxicos.
  • Predición e detección de fraude – utilizando v.i. Os sistemas de regresión loxística analizan conxuntos de datos para identificar, por exemplo, transaccións financeiras sospeitosas.

Engadir un comentario