Bruno Anastacio
História da
Inteligência
Artificial
De Asimov ao ChatGPT
Índice
Pré IA
O nascimento da IA
A IA simbólica
O primeiro “inverno da IA”
A montanha russa dos anos 1980
A virada do milênio
IA contemporânea
Pré IA
O que é IA?
Segundo o WIKIPÉDIA (2023), a inteligência artificial (IA) é “a capacidade de perceber,
sintetizar e inferir informações demonstrada por máquinas, em oposição à inteligência exibida
por humanos ou outros animais. "Inteligência" abrange a habilidade de aprender e raciocinar,
generalizar e inferir significado. Exemplos de tarefas em que isso é feito incluem
reconhecimento de fala, visão computacional, tradução entre idiomas (naturais), bem como
outras correspondências de entradas.”
“IA” antes da IA
Mesmo antes do conceito de “máquinas pensantes” ser
proposto pela ciência, a ficção já imaginava os benefícios e
possíveis consequências dessa tecnologia.
Em 1920, a peça de teatro R.U.R. (“RUR: Robôs Universais
de Rossum”, em português), escrita pelo tcheco Karel Čapek,
foi a precursora do termo “robô”, atribuído a máquinas
inteligentes capazes de substituir o trabalho de seres
humanos.
Em 1939, o russo Isaac Asimov lança a coletânea de contos
“I, Robot” (“Eu, robô”, em português), onde também aborda a
problemática de máquinas superinteligentes na sociedade.
O nascimento da
IA
A tempestade perfeita
As primeiras pesquisas sobre máquinas pensantes foram inspiradas por
uma série de descobertas nos campos da neurociência, cibernética e
computação, entre as décadas de 1930 e 1950.
Pesquisas recentes em neurologia haviam mostrado que o cérebro era
uma rede elétrica de neurônios que disparavam em pulsos
“tudo-ou-nada”. Esses sinais são semelhantes ao comportamento A Máquina de Turing
digital (0 ou 1), descritos na teoria da informação de Claude Shannon.
Outro nome importante era o de Norbert Wiener, que, com a
cibernética, descreveu a estabilidade das redes elétricas.
No campo da computação, Alan Turing mostrou que qualquer forma de
computação poderia ser descrita digitalmente. Seus estudos
culminaram na descrição formal de “algoritmo”, aceita até os dias
atuais.
Cérebro eletrônico - o marco zero da IA
Sob a “tempestade perfeita” das recentes
descobertas, Warren Sturgis McCulloch e
Walter Pitts, em 1943 , desenvolveram um
modelo computacional que simulava as
propriedades fisiológicas de um neurônio
biológico.
O neurônio de McCulloch-Pitt era o primeiro
passo na pesquisa do que seria chamado “redes
Modelo neuronial de
neurais artificiais” no futuro. Com esse modelo, McCulloch-Pitt
era possível modelar as entradas e obter as
saídas conhecidas no campo da computação
como “AND”, “OR” e “NOT”. A partir dessas três
operações básicas, qualquer solução lógica
poderia ser aplicada.
Outros acontecimentos
● 1950 - Alan Turing desenvolve o Teste de Turing, que consiste em verificar se uma máquina pode
se comportar de maneira a “imitar” um ser humano, de forma que seja impossível distinguir se a
ação está sendo realizada por um humano ou por uma máquina.
● 1951 - Christopher Strachey e Dietrich Prinz desenvolvem os primeiros jogos eletrônicos para
Dama e Xadrez, respectivamente. Os jogos eram capazes de desafiar jogadores amadores.
Desde então, a IA e o desenvolvimento de jogos caminhariam lado a lado na história.
● 1955 - Allen Newell e (futuro Nobel) Herbert A. Simon criaram o "Logic Theorist", considerado
por alguns o primeiro programa de IA da história (alguns consideram o game de Strachey o
primeiro programa de IA da história). O programa de Newell e Simon, pensado para resolver
problemas de cálculo proposicional, se mostrou capaz de solucionar 38 dos primeiros 52
teoremas do Principia Mathematica de Russell e de Whitehead, e encontrar provas novas e mais
elegantes para alguns deles.
A IA simbólica
1956 - A “fundação da IA”
Em 1956, um grupo de cientistas se reuniram
no Dartmouth College para o “Dartmouth
Summer Research Project on Artificial
Intelligence”, com o objetivo de discutir o
tema, pela primeira vez chamado “Inteligência
Artificial” pelos criadores do evento.
Na década de 1950, o otimismo tomou conta
da área. Haviam previsões de que, em 20 anos,
seria possível a construção de uma máquina
totalmente inteligente. Órgãos
governamentais como a DARPA investiram
grandes somas de dinheiro no novo campo.
1964 - Eliza, o surgimento dos chatbots e da
NLP
Na década de 1960, o processamento de linguagem natural (PLN,
ou NLP, em inglês) começa a dar seus primeiros passos.
Ross Quillan escreve o primeiro programa de IA utilizando a
técnica de redes semânticas, que procura ligar dois substantivos
numa conexão lógica através de conectores como “é um”, “vive em”, Modelo de rede semântica
“como um” e etc.
Entre 1964 e 66, Joseph Weizenbaum desenvolve o ELIZA,
considerado o primeiro chatbot. O programa consegue se
comportar numa conversação de forma que não é possível, em um
primeiro momento, definir se quem está do outro lado da máquina
é uma pessoa ou uma máquina.
O chatbot “Eliza”
1972 - WABOT-1 - O primeiro robô
humanoide
Em 1972, a Universidade de Waseda, no Japão, conclui o projeto
WAseda roBOT 1, conhecido como WABOT-1.
O robô era capaz de imitar vários comportamentos humanos, como
caminhar, agarrar e transportar objetos, enxergar através de um
sistema de visão que media distâncias e direções, além de poder se
comunicar em japonês, através de uma boca artificial
O robô humanoide japonês WABOT-1
Otimismo e financiamentos
O rápido desenvolvimento gerou uma sensação de otimismo no campo científico. O governo
americano, através da DARPA, doou 2,2 milhões de dólares ao MIT, o que permitiu o
desenvolvimento de vários projetos em IA naquela universidade.
Em 1958, H. A. Simon e Allen Newell previram que dentro de dez anos, um computador digital seria
o campeão mundial de xadrez, e que um computador digital descobriria e provaria um importante
novo teorema matemático. Em 1965, Simon previu que máquinas seriam capazes, dentro de vinte
anos, de realizar qualquer trabalho que um homem pudesse fazer. Em 1967, Marvin Minsky disse
que dentro de uma geração, o problema de criar 'inteligência artificial' será substancialmente
resolvido". E em 1970, o mesmo Minsky afirmou que entre três a oito anos, teríamos uma máquina
com a inteligência geral de um ser humano médio.
O primeiro
inverno da IA
Decepções, descrenças e descréditos
O não atendimento das expectativas geradas na década anterior teve um efeito drástico na
popularidade, e por consequência, nos investimentos em IA.
Financiadores como a DARPA e o governo Britânico retiraram seus investimentos nas
universidades que conduziam os estudos nas áreas de IA.
Na época, surgiu também uma série de discussões sobre o uso ético da IA. Weizenbaum, por
exemplo, viu, com muita crítica, o seu projeto ELIZA servindo de base para um outro projeto que
podia conduzir diálogos terapêuticos sérios.
O filósofo John Lucas argumentou que o teorema da incompletude de Gödel mostrava que,
diferente de ser humano, um sistema formal (como um programa de computador) nunca poderia
perceber a verdade de certas afirmações. Hubert Dreyfus argumentou que o raciocínio humano
na verdade envolvia muito pouco "processamento simbólico" e uma grande quantidade de
"saber fazer" corporificado, instintivo e inconsciente.
Muitas ideias, mas “pouca máquina”
Não havia memória nem velocidade de processamento suficientes para realizar algo verdadeiramente
útil. Segundo Hans Moravec, “a inteligência artificial requer poder de computação da mesma forma
que as aeronaves requerem cavalos de potência”. À época, o supercomputador Cray-1 (com custo de
US$ 8mi) era capaz de realizar 80 MIPS. Segundo o próprio Moravec, um computador que realizasse
as capacidades de detecção de borda e movimento da retina humana em tempo real precisaria
realizar 1000 MIPS.
Richard Karp (baseando-se no teorema de Stephen Cook de 1971) mostrou que existem muitos
problemas que provavelmente só poderiam ser resolvidos em tempo exponencial, o que inviabilizaria
o uso em larga escala de muitas soluções propostas nos anos anteriores.
Outra dificuldade para a aplicação das soluções de IA em ambientes reais seria “ensinar” os
computadores a respeito do contexto. Estimava-se que um computador precisaria ter o mesmo nível
de conhecimento que uma criança para conseguir executar as soluções em IA disponíveis na época, e
não havia como armazenar tantos dados com os recursos disponíveis até a década de 1970.
A “montanha
russa” dos anos
1980
Sistemas especialistas como a solução
Nos anos 1980, uma nova abordagem foi proposta. Invés
de IAs generalistas, que precisavam de uma quantidade
de dados impossíveis para aquela época, começou-se a
desenvolver sistemas especialistas, que abordavam
problemas em um escopo infinitamente menor.
Os sistemas especialistas também responderam a outra
crítica da década anterior: eles se mostraram
extremamente úteis na vida real. Sistemas como o
Dendral, que analisava moléculas químicas; e o MYCIN,
que diagnosticava doenças do sangue. O sistema XCON,
expert em selecionar componentes para sistemas de Arquitetura do sistema especialista XCON
computadores, estava poupando $40 milhões para a
Digital Equipment Corporation (DEC), empresa que o
utilizava.
A “Quinta Geração” e o retorno dos
investimentos
Em 1981, o Ministério do Comércio Internacional e da
Indústria do Japão reservou US$ 850 milhões para o projeto
Quinta Geração de computadores. Seus objetivos eram
escrever programas e construir máquinas que pudessem
manter conversas, traduzir idiomas, interpretar imagens e
raciocinar como seres humanos.
Isso impulsionou outros governos a retomarem
investimentos em projetos de IA. O Reino Unido, através do
projeto Alvey, direcionou £350 milhões. Nos EUA, tanto
empresas quanto governo - através do consórcio privado
MCC e da DARPA, respectivamente - também retomaram
investimentos entre 1984 e 1988. Configuração básica de um computador de quinta
geração
Backpropagation e a volta das redes neurais
Os estudos de Geoffrey Hinton e David Rumelhart deram à luz ao
método de aprendizado supervisionado “backpropagation”, que
fez reviver os tempos do conexionismo na IA.
Nessa esteira, as redes neurais começaram a retomar espaço: em
1986, foi lançado o “Parallel Distributed Processing", uma coleção
de dois volumes de artigos editados por David Rumelhart e o
psicólogo James McClelland. A partir dos anos 1990, as redes
neurais ganharam ainda mais popularidade num caminho sem
volta, aplicada à algoritmos de reconhecimento óptico de
caracteres e reconhecimento de fala.
A coletânea de artigos “Parallel Distributed
Processing”
Um novo “inverno” no fim dos 1980
Apesar do recente frisson, o fim dos anos 1980 foi turbulento para o desenvolvimento da IA:
- A concorrência tecnológica com a emergente indústria dos computadores pessoais da
Apple e da IBM custou a empresas dedicadas à área, como a Symbolics, que viu suas
máquinas serem ultrapassadas em tecnologia.
- IAs especialistas de aparente sucesso, como o XCON, começaram a mostrar suas
fragilidades: dificuldade de atualizações e erros grotescos quando submetidas entradas
incomuns.
- Em 1991, o governo japonês ainda não havia conseguido concluir sua lista de objetivos
com o projeto da “Quinta Geração”. No ocidente, a DARPA declinou mais uma vez,
direcionando recursos para outros projetos de retorno mais imediato.
- Dessa forma, mais de 300 empresas focadas em IA fechara, faliram ou foram vendidas
entre o fim dos anos 80 e início dos anos 90.
A virada do
milênio
As “IAs jogadoras”
Na virada do milênio, alguns eventos públicos contribuíram para a
popularização da IA:
- 1997 - O Deep Blue se tornou o primeiro sistema
computadorizado de xadrez a vencer um campeão mundial
de xadrez em atividade, Garry Kasparov
- 2005 - Um robô da Universidade de Stanford venceu o
DARPA Grand Challenge ao dirigir autonomamente por 131
milhas em um percurso deserto não ensaiado.
- 2007 - Uma equipe da CMU venceu o DARPA Urban
Challenge ao navegar autonomamente por 55 milhas em um
ambiente urbano, seguindo as leis de trânsito e evitando
riscos no trânsito.
- 2011 - O superccomputador IBM Watson derrotou os dois
maiores campeões do programa de TV Jeopardy!: Brad
Rutter e Ken Jennings, por uma grande diferença.
A lei de moore
Os resultados significativos que começaram a aparecer no fim dos anos 1990 não eram frutos de
nenhuma nova descoberta no campo teórico, mas sim do aumento e do barateamento da
capacidade de processamento dos computadores, já previsto anteriormente pela Lei de Moore, que
afirmava que o número de transistores por dispositivo dobraria a cada dois anos, sem aumento de
custo.
Dessa forma, estava respondido um dos grandes questionamentos que persistia desde o “inverno da
IA” nos anos 1970: agora havia máquinas com “superpoderes”, para processar uma gigante
quantidade de dados e cálculos por segundo.
Como exemplo, o computador Deep Blue, que venceu Kasparov numa partida de xadrez em 1997
tinha o poder de processamento 10 milhões de vezes maior do que o Ferranti Mark 1, que
Christopher Strachey ensinou a jogar xadrez em 1951.
IAs por debaixo dos panos
Ainda como fruto do “inverno da IA” dos anos 1970, o nome “inteligência artificial” era evitado
por empresas e pesquisadores em busca de financiamento.
Assim, muitas das inovações tecnológicas baseadas em IA no início dos anos 2000 não
levavam esse nome.
Um dos maiores exemplos foi a evolução dos sistemas de busca, como o Google. A IA está
presente nas nossas vidas, de maneira prática e diária, por pelo menos duas décadas, sem que
percebêssemos.
“Where is HAL 9000?”
Um dos efeitos do “inverno da IA” dos anos 70 foi a descrença e o
alarmismo da opinião pública quanto aos efeitos da IA.
Um dos grandes colaboradores para o entendimento comum do que
é uma inteligência artificial foi o filme de Stanley Kubrick “2001:
Uma Odisseia no Espaço” (1968), onde o supercomputador dotado
de inteligência artificial HAL 9000 se torna em um dos vilões da
história.
Em 2001, um dos “pais da IA” Marvin Minsky, perguntou: "Então a
pergunta é por que não tivemos o HAL em 2001?". As respostas
entre estudiosos variaram desde a fixação por redes neurais e
sistemas especialistas até as dificuldades no campo da computação,
que começavam a ser superadas pela “Lei de Moore”. Para Ray
Kurzweil, máquinas com inteligência em nível humano aparecerão
até 2029. Será?
IA
contemporânea
Big Data: a grande virada
Os anos 2010 serviram para consolidar o ambiente para mais
uma “tempestade perfeita”.
Graças ao cumprimento das previsões da Lei de Moore, a
internet das coisas começou a dar seus primeiros passos,
através dos smartphones. Por conta deles, o acesso a internet,
redes sociais e canais de compra saltaram. O barateamento da
computação também permitiu avanços na automação industrial
como nunca antes.
Agora havia uma quantidade jamais imaginada de dados sendo
gerados instantaneamente, e havia poder computacional para
Características necessárias para uma quantidade
coletar, armazenar, processar e gerar insights através desses de dados ser considerada “Big Data”
dados.
Essa é a descrição da era do “Big Data”, que serviu para dar mais
uma guinada no campo da inteligência artificial.
Uma nova era de ouro para a IA
Nos anos 2010, aplicações que utilizam inteligência artificial
começaram a se tornar mais populares entre o consumidor
final”. E os avanços fizeram com que o termo “IA” passasse a ser
mais bem aceito socialmente (e entre investidores).
Entre essas aplicações, podemos destacar:
- Motores de busca na internet;
- Sistemas de recomendações em redes sociais e
streamings de conteúdo;
- Indústria de games; Robô da Boston Dynamics
- Editores de imagens, de texto e de código;
- Editores de voz na indústria fonográfica (ex.: autotune)
- Desenvolvimento no campo da robótica
- Desenvolvimento de veículos autônomos
Anos 2020 e os modelos LLM
Como resultado dos avanços nos campos de Deep
Learning e Redes Neurais, hoje é possível processar a
imensa quantidade de dados disponível.
Neste cenário, ganham destaque os modelos de LLM
(Large Language Model). Há uma verdadeira corrida
entre as principais empresas de tecnologia do mundo,
para apresentar o melhor modelo e ganhar espaço no
mercado. Diferenças entre os modelos GPT
Entre eles, se destacam:
- GPT, da OpenAI
- Bard, do Google
- LLHaMA, da Meta
Referências
BARKER, L.; O'CONNOR, M. Expert systems for configuration at Digital: XCON and beyond. [online]. Semantic Scholar, Data de publicação indisponível. Disponível em:
[Link]
figure/1. Acesso em: 24 jun. 2023.
BRAIN LATAM. Lei do Tudo ou Nada: Como ocorre o disparo do impulso elétrico no neurônio. [online]. Brain LATAM, Data de publicação indisponível. Disponível em:
[Link] Acesso em: 24 jun. 2023.
DARTMOUTH COLLEGE. Artificial Intelligence (AI) Coined at Dartmouth. [online]. [Link], 2023. Disponível em:
[Link] Acesso em: 24 jun. 2023.
[Link]. Uma Breve História das Redes Neurais Artificiais. [online]. Deep Learning Book, 2023. Disponível em:
[Link] Acesso em: 24 jun. 2023.
LAI, Henry. What Are the Data-Centric AI Concepts Behind GPT Models? [online]. Towards Data Science, 29 mar. 2023. Disponível em:
[Link] Acesso em: 24 jun. 2023.
LEMES, Nelson. Neurônio de McCulloch-Pitts. [online]. UNIFAL-MG, 1 de agosto de 2020. Disponível em:
[Link] Acesso em: 24 jun. 2023.
LOISEAU, Jean-Christophe B. Rosenblatt's Perceptron: The Very First Neural Network. [online]. Towards Data Science, 11 de março de 2019. Disponível em:
[Link] Acesso em: 24 jun. 2023.
MOTO-Oka, T.; HAGIYA, M. Overview to the Fifth Generation Computer System. [online]. Semantic Scholar, Data de publicação indisponível. Disponível em:
[Link] Acesso
em: 24 jun. 2023.
PINHEIRO, Augusto. Redes Neurais Artificiais. [online]. Medium, janeiro de 2019. Disponível em:
[Link] Acesso em: 24 jun. 2023.
[Link]. Livro: Resenhas. [online]. Skoob, 2023. Disponível em: [Link]
Acesso em: 24 jun. 2023.
WASEDA UNIVERSITY HUMANOID ROBOTICS LABORATORY. Kato's Profile. [online]. Waseda University Humanoid Robotics Laboratory, Data de publicação
indisponível. Disponível em: [Link] Acesso em: 24 jun. 2023.
WIKIPEDIA. AI winter. [online]. Wikipedia, The Free Encyclopedia, 2023 [accessed on June 24, 2023]. Available at: [Link]
WIKIPEDIA. Artificial Intelligence [online]. Wikipedia, The Free Encyclopedia, 2023 [accessed on June 24, 2023]. Available at:
[Link]
WIKIPEDIA. Artificial Intelligence in Video Games. [online]. Wikipedia, The Free Encyclopedia, 2023 [accessed on June 24, 2023]. Available at:
[Link]
WIKIPEDIA. Dartmouth workshop. [online]. Wikipedia, The Free Encyclopedia, 2023 [accessed on June 24, 2023]. Available at:
[Link]
WIKIPEDIA. ELIZA. [online]. Wikipedia, A Enciclopédia Livre, 2023 [acessado em 24 de junho de 2023]. Disponível em: [Link]
WIKIPEDIA. HAL 9000. [online]. Wikipedia, A Enciclopédia Livre, 2023 [acessado em 24 de junho de 2023]. Disponível em:
[Link]
WIKIPEDIA. I, Robot (livro). [online]. Wikipedia, A Enciclopédia Livre, 2023 [acessado em 24 de junho de 2023]. Disponível em:
[Link]
WIKIPEDIA. Logic Theorist. [online]. Wikipedia, A Enciclopédia Livre, 2023 [acessado em 24 de junho de 2023]. Disponível em:
[Link]
WIKIPEDIA. Perceptron. [online]. Wikipedia, The Free Encyclopedia, 2023 [accessed on June 24, 2023]. Available at: [Link]
WIKIPEDIA. R.U.R. [online]. Wikipedia, The Free Encyclopedia, 2023 [accessed on June 24, 2023]. Available at:[Link]
WIKIPEDIA. Semantic Network. [online]. Wikipedia, The Free Encyclopedia, 2023 [accessed on June 24, 2023]. Available at:
[Link]
WIKIPEDIA. Teste de Turing. [online]. Wikipedia, A Enciclopédia Livre, 2023 [acessado em 24 de junho de 2023]. Disponível em:
[Link]
WIKIPEDIA. Lei de Moore. [online]. Wikipedia, A Enciclopédia Livre, 2023 [acessado em 24 de junho de 2023]. Disponível em:
[Link]
Obrigado!