0% encontró este documento útil (0 votos)
32 vistas5 páginas

Corpus

Cargado por

s94cguil
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como TXT, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
32 vistas5 páginas

Corpus

Cargado por

s94cguil
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como TXT, PDF, TXT o lee en línea desde Scribd

Aunque varias definiciones de inteligencia artificial (IA) han surgido durante las

últimas décadas, John McCarthy ofrece la siguiente definición en este documento del
2004 (enlace externo a ibm.com), "Es la ciencia e ingeniería de hacer máquinas
inteligentes, especialmente programas informáticos inteligentes. Se relaciona con
la tarea similar de usar equipos para comprender la inteligencia humana, pero la IA
no tiene que ajustarse a los métodos biológicos observables".

Sin embargo, décadas antes de esta definición, el nacimiento de la conversación


sobre inteligencia artificial lo marcó el trabajo fundamental de Alan Turing,
"Computing Machinery and Intelligence" (enlace externo a ibm.com), que se publicó
en 1950. En este artículo, Turing, a menudo referido como el "padre de la
informática", hace la siguiente pregunta: "¿Pueden pensar las máquinas?" A partir
de ahí, ofrece una prueba, ahora conocida como la "Prueba de Turing", en la que un
interrogador humano intentaría distinguir entre una respuesta de texto de
computadora y humana. Si bien esta prueba ha sido objeto de mucho escrutinio desde
su publicación, sigue siendo una parte importante de la historia de la IA, así como
un concepto continuo dentro de la filosofía, ya que utiliza ideas en torno a la
lingüística.

Stuart Russell y Peter Norvig procedieron a publicar Inteligencia Artificial: Un


Enfoque Moderno (enlace externo a ibm.com), convirtiéndose en uno de los
principales libros de texto en el estudio de IA. En él, profundizan en cuatro
posibles objetivos o definiciones de la IA, que diferencia los sistemas
informáticos en función de la racionalidad y el pensamiento frente a la actuación:

Enfoque humano:

Sistemas que piensan como humanos


Sistemas que actúan como humanos
Enfoque ideal:

Sistemas que piensan racionalmente


Sistemas que actúan racionalmente
La definición de Alan Turing habría caído bajo la categoría de "sistemas que actúan
como humanos".

En su forma más simple, la inteligencia artificial es un campo que combina la


informática y conjuntos de datos robustos para permitir la resolución de problemas.
También engloba los subcampos del aprendizaje automático y el aprendizaje profundo,
que se mencionan con frecuencia junto con la inteligencia artificial. Estas
disciplinas están compuestas por algoritmos de IA que buscan crear sistemas
expertos que hagan predicciones o clasificaciones basadas en datos de entrada.

A lo largo de los años, la inteligencia artificial ha pasado por muchos ciclos de


exageración, pero incluso para escépticos, el lanzamiento de ChatGPT de OpenAI
parece marcar un punto de inflexión. La última vez que la IA generativa fue tan
importante, los avances se produjeron en la visión por ordenador, pero ahora el
salto adelante se produce en el procesamiento de lenguaje natural. Y no es solo
lenguaje: los modelos generativos también pueden aprender la gramática del código
de software, moléculas, imágenes naturales y una variedad de otros tipos de datos.

Las aplicaciones para esta tecnología están creciendo cada día, y apenas estamos
empezando a explorar las posibilidades. Pero a medida que se extiende el uso de la
IA en las empresas, las conversaciones sobre ética adquieren una importancia
crítica. Para leer más sobre dónde se encuentra IBM dentro de la conversación en
torno a la ética de la IA, lea más aquí.

Tipos de inteligencia artificial: IA débil frente a IA fuerte


La IA débil, también llamada IA estrecha o Inteligencia artificial estrecha (ANI),
es una IA entrenada y enfocada para realizar tareas específicas. La IA débil
impulsa la mayor parte de la IA que nos rodea hoy. "Estrecho" podría ser un
descriptor más preciso para este tipo de IA, ya que no tiene nada de débil; permite
algunas aplicaciones muy potentes, como Siri de Apple, Alexa de Amazon, IBM Watson
y vehículos autónomos.

La IA robusta está conformada por la inteligencia artificial general (IAG) y la


superinteligencia artificial (SIA). La inteligencia artificial general (IAG), o la
IA general, es una forma teórica de IA en la que una máquina tendría una
inteligencia igual a la de los humanos; sería autoconsciente y tendría la capacidad
de resolver problemas, aprender y planificar para el futuro. La superinteligencia
artificial (SIA), también conocida como superinteligencia, superaría la
inteligencia y la capacidad del cerebro humano.

Si bien la IA robusta todavía es completamente teórica y no tiene ejemplos


prácticos de uso actualmente, no significa que los investigadores de IA no estén
también explorando su desarrollo. Mientras tanto, los mejores ejemplos de la SIA
provienen de la ciencia ficción, como HAL, la malévola computadora superhumana en
2001: Odisea del espacio.

Aprendizaje profundo vs. Aprendizaje automático


Dado que el deep learning y el machine learning tienden a ser utilizados
indistintamente, vale la pena señalar sus diferencias. Como se mencionó
anteriormente, ambos son subcampos de la inteligencia artificial, y el deep
learning es en realidad un subcampo del machine learning.

En realidad, el aprendizaje profundo se compone de redes neuronales. "Profundo" en


el deep learning se refiere a una red neuronal compuesta por más de tres capas (que
incluirían las entradas y la salida), que se puede considerar un algoritmo de deep
learning.

La diferencia entre el deep learning y el machine learning es cómo aprende cada


algoritmo.

El deep learning automatiza gran parte de la fase de extracción de características


del proceso, lo que elimina parte de la intervención humana manual necesaria y
permite el uso de conjuntos de datos más grandes. El deep learning se podría
considerar como "machine learning escalable", tal como Lex Fridman señaló en la
misma conferencia del MIT mencionada anteriormente.

El machine learning tradicional, o "non-deep", depende más de la intervención


humana para aprender. Los expertos humanos determinan la jerarquía de
características para comprender las diferencias entre las entradas de datos, lo que
por lo general requiere más datos estructurados para aprender.

El "deep" machine learning puede utilizar los conjuntos de datos etiquetados,


también conocidos como aprendizaje supervisado, para informar a su algoritmo, pero
no requiere necesariamente un conjunto de datos etiquetados. Puede ingerir datos no
estructurados en su forma original (como por ejemplo texto o imágenes) y puede
determinar automáticamente la jerarquía de características que distinguen
diferentes categorías de datos.

A diferencia del machine learning, no requiere intervención humana para procesar


datos, lo que permite escalarlo de maneras más interesantes.

Diagrama de una red neuronal profunda


El auge de los modelos generativos
La IA generativa se refiere a modelos de aprendizaje profundo que pueden tomar
datos sin procesar; digamos, toda Wikipedia o los trabajos recopilados de
Rembrandt, y “aprender” a generar resultados estadísticamente probables cuando se
le solicite. En un alto nivel, los modelos generativos codifican una representación
simplificada de sus datos de capacitación y los extraen para crear un nuevo trabajo
similar, pero no idéntico, a los datos originales.

Los modelos generativos se han utilizado durante años en estadísticas para analizar
datos numéricos. Sin embargo, el auge del aprendizaje profundo permitió ampliarlos
a imágenes, voz y otros tipos de datos complejos. Entre la primera clase de modelos
que lograron esta hazaña cruzada se encuentran los autocodificadores variacionales,
o VAE, introducidos en el 2013. Los VAE fueron los primeros modelos de aprendizaje
profundo que se usaban ampliamente para generar imágenes y discursos realistas.

“Los VAEs abrieron las puertas al modelado generativo profundo haciendo que los
modelos sean más fáciles de escalar”, dijo Akash Srivastava, experto en IA
generativa del MIT-IBM watsonx AI Lab. “Gran parte de lo que hoy pensamos como IA
generativa comenzó aquí”.

Los primeros ejemplos de modelos, como GPT-3, BERT o DALL-E 2, han demostrado lo
que es posible. El futuro son modelos capacitados en un amplio conjunto de datos no
etiquetados que se pueden utilizar para diferentes tareas, con un ajuste mínimo de
precisión. Los sistemas que ejecutan tareas específicas en un solo dominio están
dando paso a una IA amplia que aprende de manera más general y funciona en todos
los dominios y problemas. Los modelos fundacionales, entrenados en grandes
conjuntos de datos sin etiquetar y ajustados para una variedad de aplicaciones,
están impulsando este cambio.

Cuando se trata de IA generativa, se predice que el modelo fundacional acelerarán


drásticamente la adopción de IA en la empresa. La reducción de los requisitos de
etiquetado hará que sea mucho más fácil para las empresas sumergirse en ella, y la
automatización altamente precisa y eficiente impulsada por la IA que permiten
significará que muchas más empresas podrán desplegar la IA en una gama más amplia
de situaciones de misión crítica. Para IBM, la esperanza es que el poder del modelo
fundacional pueda eventualmente llevarse a todas las empresas en un entorno de nube
híbrida sin fricciones.

Conoza los modelos fundacionales en watsonx.ai

Aplicaciones de inteligencia artificial


Hoy en día, existen numerosas aplicaciones reales para sistemas de IA A
continuación se presentan algunos de los casos de uso más comunes:

reconocimiento de voz
También conocido como reconocimiento automático de voz (ASR), reconocimiento de voz
por computadora o conversión de voz a texto, el reconocimiento de voz utiliza PLN
para procesar el habla humana en un formato escrito. Muchos dispositivos móviles
incorporan reconocimiento de voz en sus sistemas para realizar búsquedas por voz
(Siri, por ejemplo) o brindar más accesibilidad para enviar mensajes de texto en
inglés o en muchos idiomas ampliamente utilizados. Vea cómo Don Johnston utilizó
IBM Watson Text to Speech para mejorar la accesibilidad en el aula con nuestro
estudio de caso.

Atención al cliente
Los agentes virtuales en línea y los chatbots están reemplazando a los agentes
humanos a lo largo del recorrido del cliente. Responden preguntas frecuentes (FAQ)
sobre temas como el envío, o brindan asesoramiento personalizado, venta cruzada de
productos o sugerencias de tamaños para los usuarios, cambiando la forma en que
pensamos sobre la participación del cliente en sitios web y plataformas de redes
sociales. Los ejemplos incluyen bots de mensajería en sitios de comercio
electrónico con agentes virtuales, aplicaciones de mensajería, como Slack y
Facebook Messenger, y tareas que generalmente realizan asistentes virtuales y
asistentes de voz. Vea cómo Autodesk Inc. utilizó IBM watsonx Assistant para
acelerar los tiempos de respuesta de los clientes en un 99 % con nuestro estudio de
caso.

Visión artificial
Esta tecnología de IA permite que las computadoras y los sistemas deriven
información significativa a partir de imágenes digitales, videos y otras entradas
visuales, y con base en esas entradas, pueden tomar medidas. Esta capacidad de
proporcionar recomendaciones la distingue de las tareas de reconocimiento de
imágenes. Gracias a las redes neuronales convolucionales, la visión por ordenador
tiene aplicaciones en el etiquetado de fotos en las redes sociales, la obtención de
imágenes radiológicas en la sanidad y los coches autónomos en la industria
automovilística. Vea cómo ProMare utilizó IBM Maximo para marcar un nuevo rumbo en
las investigaciones oceánicas con nuestro caso práctico.

de la cadena de suministro
La robótica adaptativa actúa sobre la información de los dispositivos de Internet
de las cosas (IoT) y sobre datos estructurados y no estructurados para tomar
decisiones autónomas. Las herramientas de PLN pueden comprender el habla humana y
reaccionar a lo que se les dice. El análisis predictivo se aplica a la capacidad de
respuesta a la demanda, la optimización del inventario y la red, el mantenimiento
preventivo y la fabricación digital. Los algoritmos de búsqueda y reconocimiento de
patrones, que ya no son solo predictivos, sino jerárquicos, analizan datos en
tiempo real, ayudando a las cadenas de suministro a reaccionar a la inteligencia
aumentada generada por máquinas, al tiempo que brindan visibilidad y transparencia
instantáneas. Vea cómo Hendrickson utilizó IBM Sterling para impulsar transacciones
en tiempo real con nuestro estudio de caso.

Pronóstico meteorológico
Los modelos meteorológicos en los que confían las emisoras para hacer pronósticos
precisos consisten en algoritmos complejos que se ejecutan en supercomputadoras.
Las técnicas de aprendizaje automático mejoran estos modelos haciéndolos más
aplicables y precisos. Descubra cómo Emnotion utilizó IBM Cloud para capacitar a
las empresas susceptibles a las condiciones meteorológicas para que tomaran
decisiones más proactivas y basadas en datos con nuestro estudio de caso.

Detección de anomalías
Los modelos de IA pueden analizar grandes cantidades de datos y descubrir puntos de
datos atípicos dentro de un conjunto de datos. Estas anomalías pueden generar
visibilidad sobre equipos defectuosos, errores humanos o fallos de seguridad. Vea
cómo Netox utilizó IBM QRadar para proteger las empresas digitales de las
ciberamenazas con nuestro estudio de caso.

Historia de la inteligencia artificial: fechas y nombres clave


La idea de "una máquina que piensa" se remonta a la antigua Grecia. Pero, desde la
aparición de la computación electrónica (y en relación con algunos de los temas
tratados en este artículo), ha habido acontecimientos importantes e hitos en la
evolución de la inteligencia artificial:

1950: Alan Turing publica Computing Machinery and Intelligence. En el artículo,


Turing, famoso por haber descifrado el código ENIGMA de los nazis durante la
Segunda Guerra Mundial, propone responder a la pregunta "¿pueden pensar las
máquinas?". e introduce la Prueba de Turing para determinar si una computadora
puede demostrar la misma inteligencia (o los resultados de la misma inteligencia)
que un humano. El valor de la prueba de Turing ha sido objeto de debate desde
entonces.
1956: John McCarthy acuña el término "inteligencia artificial" en la primera
conferencia de IA en el Dartmouth College. (Posteriormente, McCarthy inventaría el
lenguaje Lisp). Ese mismo año, Allen Newell, JC Shaw y Herbert Simon crearon Logic
Theorist, el primer programa de software de inteligencia artificial que funcionó.
1967: Frank Rosenblatt crea el Mark 1 Perceptron, la primera computadora basada en
una red neuronal que "aprendió" mediante prueba y error. Apenas un año después,
Marvin Minsky y Seymour Papert publican un libro titulado Perceptrons, que se
convierte en el trabajo de referencia en redes neuronales y, al menos por un
tiempo, en un argumento contra futuros proyectos de investigación de redes
neuronales.
1980: Las redes neuronales que utilizan un algoritmo de retropropagación para
entrenarse a sí mismas se utilizan ampliamente en aplicaciones de IA.
1997: El sistema Deep Blue de IBM vence al campeón mundial de ajedrez Garry
Kasparov, en una partida de ajedrez (y revancha).
2011: IBM Watson vence a los campeones Ken Jennings y Brad Rutter en Jeopardy!
2015: La supercomputadora Minwa de Baidu usa un tipo especial de red neuronal
profunda, llamada red neuronal convolucional, para identificar y categorizar
imágenes con una mayor precisión que el promedio humano.
2016: El programa AlphaGo de DeepMind, impulsado por una red neuronal profunda,
vence a Lee Sodol, el campeón mundial de Go, en un partido de cinco juegos. La
victoria es significativa dado el gran número de movimientos posibles a medida que
el juego progresa (¡más de 14,5 billones después de solamente cuatro movimientos!).
Más tarde, Google compró DeepMind por USD 400 millones.

También podría gustarte