A Singularidade e o Futuro da Humanidade
A Singularidade e o Futuro da Humanidade
Página 1
NOTA: Este documento PDF tem um conjunto útil de "marcadores" para ele, que estão acessíveis
pressionando a guia Marcadores no lado esquerdo desta janela.
************************************************* ** *
Se esses livros influenciaram você da mesma forma que eles nos influenciaram, nós
convide seu contato nos endereços de e-mail listados abaixo.
Aproveitar,
Página 2
[Link] 1/349
10/03/2021 ************************************************* ** *
Aqui estão alguns novos links que achamos interessantes:
[Link]
Artigos de notícias, ensaios e discussões sobre os tópicos mais recentes em
tecnologia e inteligência acelerada.
[Link]
O Singularity Institute for Artificial Intelligence: A
think tank dedicado a aumentar as chances da humanidade de
experimentando uma Singularidade segura e benéfica. Vários
artigos interessantes sobre tópicos como AI amigável,
Riscos existenciais.
[Link]/Media
Vídeos, áudio e PowerPoints dos Singularity Summits;
e vídeos sobre o propósito do SIAI.
[Link]/videos/kurzweil
Vídeos na internet em que a palavra “Kurzweil” é
falada. Ótimo novo recurso!
Página 3
LOUVOR PARA
A SINGULARIDADE ESTÁ PRÓXIMA
"Qualquer um pode entender a ideia principal do Sr. Kurzweil: que o conhecimento tecnológico da humanidade tem sido
bola de neve, com perspectivas estonteantes para o futuro. Os fundamentos são claramente expressos. Mas para aqueles mais
conhecedor e curioso, o autor argumenta seu caso em detalhes fascinantes .... O
A singularidade está próxima é surpreendente em escopo e bravata. "
—JANET MASLIN, The New York Times
[Link] 2/349
10/03/2021 ************************************************* ** *
"Cheio de especulações imaginativas e cientificamente fundamentadas ... Vale a pena ler The Singularity Is Near apenas
pela riqueza de informações, todas apresentadas com lucidez .... [É] um livro importante. Nem tudo que Kurzweil
predições podem acontecer, mas muito acontecerá, e mesmo que você não concorde com tudo o que ele diz, é tudo
vale a pena prestar atenção. "
- The Inquirer na Filadélfia
"[Um] olhar estimulante e assustadoramente profundo sobre para onde estamos nos dirigindo como espécie ... Sr. Kurzweil é um brilhante
cientista e futurista, e ele apresenta um caso convincente e, de fato, muito comovente para sua visão do
futuro. "
- The New York Fri
Convincente.
- o San Jose Mercury News
"Kurzweil vincula uma ascensão projetada da inteligência artificial ao futuro do processo evolutivo
em si. O resultado é assustador e esclarecedor .... The Singularity Is Near é uma espécie de mapa enciclopédico
do que Bill Gates certa vez chamou de 'a estrada à frente'. "
- The Oregonian
"Este livro oferece três coisas que o tornarão um documento seminal. 1) Ele promove uma nova ideia, não amplamente
conhecido, 2) A ideia é a maior que você pode imaginar: a Singularidade - todas as mudanças nos últimos milhões de anos
ser substituída pela mudança nos próximos cinco minutos, e 3) É uma ideia que exige uma resposta informada.
As afirmações do livro são tão anotadas no rodapé, documentadas, representadas graficamente, argumentadas e plausíveis em pequenos detalhes, que
requer o igual em resposta. No entanto, suas afirmações são tão ultrajantes que, se verdadeiras, significariam ... bem ... o fim
do mundo como o conhecemos, e o início da utopia. Ray Kurzweil pegou todos os fios do
Meme de singularidade circulando nas últimas décadas e os uniu em um único tomo que ele acertou
na nossa porta da frente. Suspeito que este será um dos livros mais citados da década. Como o de Paul Ehrlich
o perturbador livro Population Bomb, de 1972, fã ou inimigo, é a onda no epicentro com a qual você deve começar. "
—KEVIN KELLY, fundador da Wired
"Visão utópica e impressionante do futuro próximo, quando a inteligência da máquina supera o cérebro biológico e
como as coisas podem parecer quando isso acontecer .... Acessível e envolvente. "
Página 4
"Um dos pensadores mais importantes do nosso tempo, Kurzweil deu continuidade a seus trabalhos anteriores ... com um trabalho de
amplitude surpreendente e escopo audacioso. "
—[Link]
"Kurzweil é um verdadeiro cientista - um cientista de mente aberta ... O que é impressionante não é o grau em que
A visão inebriante e estimulante de Kurzweil não consegue convencer - dado o escopo de suas projeções, isso é inevitável -
mas o grau em que parece totalmente plausível. "
- Editores semanais (revisão com estrela)
"Durante todo este tour de force de otimismo tecnológico ilimitado, ficamos impressionados com o autor
integridade intelectual inflexível .... Se você está interessado na evolução da tecnologia neste século
e suas consequências para os humanos que o estão criando, este é certamente um livro que você deve ler. ”
—JOHN WALKER, inventor da Autodesk, no Fourmilab Change Log
"Ray Kurzweil é a melhor pessoa que conheço para prever o futuro da inteligência artificial. Seu novo e intrigante
livro prevê um futuro em que as tecnologias da informação avançaram tão longe e rápido que permitem
humanidade para transcender suas limitações biológicas, transformando nossas vidas
de maneiras que ainda não podemos imaginar. "
—BILL GATES
"Se você já se perguntou sobre a natureza e o impacto das próximas descontinuidades profundas que
mudar fundamentalmente a maneira como vivemos, trabalhamos e percebemos nosso mundo, leia este livro. Singularidade de Kurzweil
é um tour de force, imaginando o inimaginável e explorando eloquentemente o
próximos eventos perturbadores que irão alterar nossas perspectivas fundamentais tão significativamente quanto a eletricidade e
o computador.
—DEAN KAMEN, físico e inventor da primeira bomba de insulina vestível, a HomeChoice
máquina de diálise portátil, o IBOT Mobility System e o Segway Human Transporter;
recebedor da Medalha Nacional de Tecnologia
[Link] 3/349
10/03/2021 ************************************************* ** *
"Um de nossos principais praticantes de IA, Ray Kurzweil, mais uma vez criou um livro 'leitura obrigatória' para qualquer pessoa
interessado no futuro da ciência, no impacto social da tecnologia e, de fato, no futuro de nossa espécie. Dele
livro instigante prevê um futuro em que transcendemos nossas limitações biológicas, enquanto fazemos um
caso convincente de que uma civilização humana com capacidades sobre-humanas está mais próxima do que a maioria das pessoas
entender. "
—RAJ REDDY, diretor fundador, Robotics Institute, Carnegie Mellon University;
recebedor do Prêmio Turing da Association for Computing Machinery
"O livro otimista de Ray merece uma leitura e uma resposta cuidadosa. Para aqueles como eu, cujas opiniões
diferem de Ray no equilíbrio entre promessa e perigo, The Singularity Is Near é um apelo claro para a continuidade
diálogo para abordar as maiores preocupações decorrentes dessas possibilidades de expansão. "
—BILL JOY, cofundador e ex-cientista-chefe, Sun Microsystems
Página 5
[Link] 4/349
10/03/2021 ************************************************* ** *
Página 6
Ray Kurzweil é um dos maiores inventores, pensadores e futuristas do mundo, com um histórico de vinte anos
de previsões precisas. Chamado de "o gênio inquieto" pelo The Wall Street Journal e "o pensamento definitivo
máquina "pela revista Forbes , Kurzweil foi selecionado como um dos principais empresários pela revista Inc. ,
que o descreveu como o "herdeiro legítimo de Thomas Edison." A PBS o selecionou como um dos "dezesseis
revolucionários que fizeram a América ", junto com outros inventores dos últimos dois séculos.
o Hall da Fama dos Inventores Nacionais e recebedor da Medalha Nacional de Tecnologia, o Lemelson-MIT
Prêmio (o maior prêmio do mundo para inovação), treze doutorados honorários e prêmios de três dos Estados Unidos
presidentes, ele é o autor de quatro livros anteriores: Fantastic Voyage: Live Long Enough to Live Forever
(coautoria com Terry Grossman, MD), The Age of Spiritual Machines , The 10% Solution for a Healthy
Life e The Age of Intelligent Machines .
Página 7
[Link] 5/349
10/03/2021 ************************************************* ** *
Página 8
[Link] 6/349
10/03/2021 ************************************************* ** *
Viagem fantástica: viva o suficiente para viver para sempre (com Terry Grossman, MD)
Página 9
RAY KURZWEIL
A singularidade está próxima
QUANDO HUMANOS TRANSCENDEM A BIOLOGIA
[Link] 7/349
10/03/2021 ************************************************* ** *
VIKING
Página 10
VIKING
Publicado pelo Grupo Penguin
Penguin Group (USA) Inc., 375 Hudson Street, Nova York, New York 10014, EUA ● Penguin Group (Canadá), 10 Alcorn Avenue, Toronto,
Ontário, Canadá M4V 3B2 (uma divisão da Pearson Penguin Canada Inc.) ● Penguin Books Ltd, 80 Strand, London WC2R 0RL, Inglaterra ● Penguin
Irlanda, 25 St. Stephen's Green, Dublin 2, Irlanda (uma divisão da Penguin Books Ltd) ● Penguin Books Australia Ltd, 250 Camberwell Road,
Camberwell, Victoria 3124, Austrália (uma divisão da Pearson Australia Group Pty Ltd) ● Penguin Books India Pvt Ltd, 11 Community Centre,
Panchsheel Park, New Delhi - 110 017, Índia ● Penguin Group (NZ), Cnr Airborne and Rosedale Roads, Albany, Auckland 1310, Nova Zelândia (a
divisão da Pearson New Zealand Ltd) ● Penguin Books (África do Sul) (Pty) Ltd, 24 Strudee Avenue, Rosebank, Johannesburg 2196, África do Sul
Penguin Books Ltd, Escritórios registrados: 80 Strand, London WC2R 0RL, Inglaterra
Publicado pela primeira vez em 2005 pela Viking Penguin, membro do Penguin Group (USA) Inc.
10 9 8 7 6 5 4 3 2 1
Todos os direitos reservados Fotografia na pág. 368 por Helene DeLillo, 2005
Agradecemos a permissão para reimprimir trechos das seguintes obras protegidas por direitos autorais:
"Plastic Fantastic Lover" de Marty Balin, interpretada por Jefferson Airplane. Ice Bag Publishing Corp. "What I Am" de Edie Arlisa Brickell, Kenneth
Neil Withrow, John Bradley Houser, John Walter Bush, Brandon Aly. © 1988 por Geffen Music, Edie Briskell Songs, Withrow Publishing,
Enlightened Kitty Music, Strange Mind Productions. Todos os direitos reservados. Temporada da Bruxa de Donovan Leitch. © 1996 por Donovan (Música)
Limitado. Copyright renovado. Direitos autorais internacionais garantidos. Usado com permissão. Todos os direitos reservados. Direito mundial administrado por Peermusic (Reino Unido)
Ltd. "Sailing to Byzantium" de The Collected Works of W.B. Yeats, Volume I: The Poems, revisado e editado por Richard J. Finneran. Copyright ©
1928 pela The Macmillan Company; copyright renovado © 1956 por Georgie Yeats. Reproduzido com permissão de Scribner, uma marca de Simon &
Schuster Adult Publishing Group e AP Watt Ltd em nome de Michael B. Yeats.
Kurzweil, Ray.
A singularidade está próxima: quando os humanos transcendem a biologia / Ray Kurzweil.
p. cm.
Inclui referências bibliográficas (p.).
ISBN 0-670-03384-7
1. Cérebro - Evolução. 2. Evolução humana. 3. Genética. 4. Nanotecnologia. 5. Robótica.
I. Título.
QP376.K85 2005
153,9 - dc22 2004061231
Impresso nos Estados Unidos da América ● Ambientado no Minion ● Desenhado por Amy Hill
Sem limitar os direitos sob os direitos autorais reservados acima, nenhuma parte desta publicação pode ser reproduzida, armazenada ou introduzida em uma recuperação
sistema, ou transmitido, de qualquer forma ou por qualquer meio (eletrônico, mecânico, fotocópia, gravação ou outro), sem o prévio escrito
permissão do proprietário dos direitos autorais e do editor deste livro acima.
A digitalização, upload e distribuição deste livro pela Internet ou por qualquer outro meio sem a permissão do editor é ilegal e
punível por lei. Adquira apenas edições eletrônicas autorizadas e não participe ou incentive a pirataria eletrônica de direitos autorais
materiais. Agradecemos seu apoio aos direitos do autor.
[Link] 8/349
10/03/2021 ************************************************* ** *
Página 11
[Link] 9/349
10/03/2021 ************************************************* ** *
Página 12
Conteúdo
Agradecimentos 18
Prólogo 21
CAPÍTULO UM
As Seis Épocas 24
As Seis Épocas 28
Época Um: Física e Química. Época Dois: Biologia e DNA. Época três: cérebros. Época
Quatro: Tecnologia. Época Cinco: A Fusão da Tecnologia Humana com a Inteligência Humana. Época
Seis: O Universo Acorda.
CAPÍTULO DOIS
Página 13
CAPÍTULO TRÊS
[Link] 10/349
10/03/2021 ************************************************* ** *
Tecnologias Computacionais Emergentes 107
A ponte para a computação molecular 3-D. Os nanotubos ainda são a melhor aposta. Computando com
Moléculas. Auto-montagem. Emulando Biologia. Computando com DNA. Computando com Spin.
Computando com luz. Computação quântica.
CAPÍTULO QUATRO
Página 14
Modelo das regiões auditivas. O sistema visual. Outros trabalhos em andamento: um artificial
Hipocampo e uma região olivocerebelar artificial. Compreendendo as funções de nível superior:
Imitação, previsão e emoção.
CAPÍTULO CINCO
[Link] 11/349
10/03/2021 ************************************************* ** *
Engenharia de células. Resolvendo a Fome Mundial. Clonagem humana revisitada.
Nanotecnologia: a intersecção da informação com o mundo físico 183
O montador biológico. Atualizando o núcleo celular com um nanocomputador
e Nanobot. Dedos gordos e pegajosos. O debate esquenta.
Primeiros usuários. Potencializando a Singularidade. Aplicações da Nanotecnologia
Para o ambiente. Nanobots na corrente sanguínea.
CAPÍTULO SEIS
O impacto. . . 227
Página 15
. . . na aprendizagem 250
. . . no trabalho 251
Propriedade intelectual. Descentralização.
. . . no jogo 253
. . . sobre o destino inteligente do Cosmos: por que provavelmente estamos sozinhos no universo 254
A Equação de Drake. The Limits of Computation Revisited. Maior ou menor. Expandindo além do
Sistema solar. A velocidade da luz revisitada. Buracos de minhoca. Mudando a velocidade da luz. O fermi
Paradoxo revisitado. O Princípio Antrópico Revisitado. O Multiverso. Universos em evolução.
Inteligência como o Destino do Universo. A função de utilidade final. Radiação Hawking. Por que
A inteligência é mais poderosa do que a física. Um computador em escala universal. O Universo Holográfico.
CAPÍTULO SETE
Ainda humano?
[Link] 12/349
10/03/2021 ************************************************* ** *
CAPÍTULO OITO
Página 16
. . . e perigos 290
CAPÍTULO NOVE
[Link] 13/349
10/03/2021 ************************************************* ** *
Página 17
Epílogo 344
Página 18
Agradecimentos
[Link] 14/349
10/03/2021 ************************************************* ** *
eu
motivação.
gostaria de expressar minha profunda gratidão a minha mãe, Hannah, e a meu pai, Fredric, por apoiar todos os meus
ideias e invenções iniciais sem questionamento, o que me deu liberdade para experimentar; para minha irmã Enid por
sua inspiração; e para minha esposa, Sonya, e meus filhos, Ethan e Amy, que dão sentido à minha vida, amor e
Gostaria de agradecer às muitas pessoas talentosas e dedicadas que me ajudaram neste projeto complexo:
Na Viking: meu editor, Rick Kot, que forneceu liderança, entusiasmo e edição criteriosa; Clare Ferraro, quem
forneceu forte suporte como editor; Timothy Mennel, que forneceu edição de texto especializada; Bruce Giffords e John
Jusino, por coordenar os diversos detalhes da produção do livro; Amy Hill, pelo design do texto interior; Holly Watson, para
seu trabalho de publicidade eficaz; Alessandra. Lusardi, que habilmente ajudou Rick Kot; Paul Buckley, por seu claro e elegante
design de arte; e Herb Thomby, que desenhou a capa envolvente.
Loretta Barrett, minha agente literária, cuja orientação entusiástica e astuta ajudou a guiar este projeto.
Terry Grossman, MD, meu colaborador de saúde e co-autor de Fantastic Voyage: Live Long Enough to Live.
Forever , por me ajudar a desenvolver minhas ideias sobre saúde e biotecnologia por meio de 10.000 e-mails de um lado para outro, e
uma colaboração multifacetada.
Martine Rothblatt, por sua dedicação a todas as tecnologias discutidas neste livro e por nossa colaboração em
desenvolvimento de diversas tecnologias nessas áreas.
Aaron Kleiner, meu parceiro de negócios de longa data (desde 1973), por sua devoção e colaboração em muitos
projetos, incluindo este.
Amara Angelica, cujos esforços dedicados e perspicazes lideraram nossa equipe de pesquisa. Amara também usou seu excelente
habilidades de edição para me ajudar a articular as questões complexas deste livro. Kathryn Myronuk, cuja pesquisa dedicada
esforços deram uma contribuição importante para a pesquisa e as notas. Sarah Black contribuiu com pesquisas criteriosas e
habilidades editoriais. Minha equipe de pesquisa forneceu assistência muito competente: Amara Angelica, Kathryn Myronuk, Sarah Black,
Daniel Pentlarge, Emily Brown, Celia Black-Brooks, Nanda Barker-Hook, Sarah Brangan, Robert Bradbury, John
Tillinghast, Elizabeth Collins, Bruce Darner, Jim Rintoul, Sue Rintoul, Larry Klaes e Chris Wright. Adicional
a assistência foi fornecida por Liz Berry, Sarah Brangan, Rosemary Drinka, Linda Katz, Lisa Kirschner, Inna Nirenberg,
Christopher Setzer, Joan Walsh e Beverly Zibrak.
Laksman Frank, que criou muitos dos diagramas e imagens atraentes de minhas descrições, e formatou o
gráficos.
Celia Black-Brooks, por fornecer sua liderança no desenvolvimento de projetos e comunicações.
Phil Cohen e Ted Coyle, por implementar minhas idéias para a ilustração na página 322, e Helene DeLillo, por
a foto "Singularity Is Near" no início do capítulo 7.
Nanda Barker-Hook, Emily Brown e Sarah Brangan, que ajudaram a gerenciar a extensa logística da pesquisa
e processos editoriais.
Ken Linde e Matt Bridges, que forneceram suporte de sistemas de computador para manter nosso fluxo de trabalho complexo em andamento
suavemente.
Denise Scutellaro, Joan Walsh, Maria Ellis e Bob Beal, por fazer a contabilidade deste projeto complicado.
Página 19
A equipe [Link], que forneceu apoio de pesquisa substancial para o projeto: Aaron Kleiner, Amara
Angélica, Bob Beal, Celia Black-Brooks, Daniel Pentlarge, Denise Scutellaro, Emily Brown, Joan Walsh, Ken Linde,
Laksman Frank, Maria Ellis, Matt Bridges, Nanda Barker-Hook, Sarah Black e Sarah Brangan.
Mark Bizzell, Deborah Lieberman, Kirsten Clausen e Dea Eldorado, por sua assistência na comunicação de
a mensagem deste livro.
Robert A. Freitas Jr., por sua revisão completa do material relacionado à nanotecnologia.
Paul Linsay, por sua revisão completa da matemática neste livro.
Meus colegas leitores especialistas que forneceram o serviço inestimável de revisar cuidadosamente o conteúdo científico: Robert
A. Freitas Jr. (nanotecnologia, cosmologia), Ralph Merkle (nanotecnologia), Martine Rothblatt (biotecnologia,
aceleração da tecnologia), Terry Grossman (saúde, medicina, biotecnologia), Tomaso Poggio (ciência do cérebro e cérebro
engenharia reversa), John Parmentola (física, tecnologia militar), Dean Kamen (desenvolvimento de tecnologia), Neil
Gershenfeld (tecnologia computacional, física, mecânica quântica), Joel Gershenfeld (engenharia de sistemas), Hans
Moravec (inteligência artificial, robótica), Jean-Jacques E. Slotine, Max More (aceleração de tecnologia, filosofia).
(cérebro e ciências cognitivas), Sherry Turkle (impacto social da tecnologia), Seth Shostak (SETI, cosmologia,
astronomia), Damien Broderick (aceleração da tecnologia, a singularidade) e Harry George (tecnologia
empreendedorismo).
Meus leitores internos competentes: Amara Angelica, Sarah Black, Kathryn Myronuk, Nanda Barker-Hook, Emily
Brown, Celia Black-Brooks, Aaron Kleiner, Ken Linde, John Chalupa e Paul Albrecht.
Meus leitores leigos, que forneceram ideias perspicazes: meu filho, Ethan Kurzweil, e David Dalrymple.
Bill Gates, Eric Drexler e Marvin Minsky, que deram permissão para incluir seus diálogos no livro, e para
suas ideias, que foram incorporadas aos diálogos.
Os muitos cientistas e pensadores cujas idéias e esforços estão contribuindo para nossa expansão humana exponencialmente
[Link] 15/349
10/03/2021 ************************************************* ** *
base de conhecimento.
As pessoas acima mencionadas forneceram muitas idéias e correções que pude fazer graças aos seus esforços.
Por quaisquer erros que permaneçam, assumo a responsabilidade exclusiva.
Página 20
[Link] 16/349
10/03/2021 ************************************************* ** *
Página 21
PRÓLOGO
Eu não acho que haja qualquer emoção que possa passar pelo coração humano como aquela sentida pelo inventor ao ver
alguma criação do cérebro se desenvolvendo para o sucesso.
UMA t aos cinco anos, tive a ideia de que me tornaria um inventor. Tive a noção de que as invenções poderiam
mudar o mundo. Quando outras crianças se perguntavam em voz alta o que queriam ser, eu já tinha
presunção de que eu sabia o que seria. O foguete para a lua que eu estava construindo (quase
uma década antes do desafio do presidente Kennedy à nação) não deu certo. Mas na época eu fiz oito anos,
minhas invenções se tornaram um pouco mais realistas, como um teatro robótico com ligações mecânicas que podem se mover
cenários e personagens dentro e fora do campo de visão e jogos virtuais de beisebol.
Tendo fugido do Holocausto, meus pais, ambos artistas, queriam uma educação religiosa mais mundana, menos provinciana
para mim. 1 Minha educação espiritual, como resultado, ocorreu em uma igreja unitarista. Passaríamos seis meses estudando um
religião - ir aos seus cultos, ler seus livros, ter diálogos com seus líderes - e então passar para a próxima. O
o tema foi “muitos caminhos para a verdade”. Eu percebi, é claro, muitos paralelos entre as tradições religiosas do mundo, mas
até mesmo as inconsistências eram esclarecedoras. Ficou claro para mim que as verdades básicas eram profundas o suficiente para
transcenda as contradições aparentes.
Aos oito anos, descobri o Tom Swift Jr. série de livros. Os enredos de todos os trinta e três livros (apenas
nove dos quais haviam sido publicados quando comecei a lê-los em 1956) eram sempre os mesmos: Tom se arranjaria
em uma situação terrível, na qual seu destino e o de seus amigos, e muitas vezes o resto da raça humana, pairou no
Saldo. Tom se retiraria para seu laboratório no porão e pensaria em como resolver o problema. Este, então, foi o dramático
tensão em cada livro da série: que ideia engenhosa Tom e seus amigos teriam para salvar o dia? 2 o
A moral desses contos era simples: a ideia certa tinha o poder de superar um desafio aparentemente avassalador.
Até hoje, continuo convencido dessa filosofia básica: não importa quais dilemas enfrentemos - problemas de negócios,
questões de saúde, dificuldades de relacionamento, bem como os grandes desafios científicos, sociais e culturais de nosso tempo - aí
é uma ideia que pode nos permitir prevalecer. Além disso, podemos encontrar essa ideia. E quando o encontrarmos, precisamos implementar
isto. Minha vida foi moldada por esse imperativo. O poder de uma ideia - isso em si é uma ideia.
Mais ou menos na mesma época que eu estava lendo Tom Swift Jr. série, lembro-me do meu avô, que também tinha fugido
Europa com minha mãe, voltando de seu primeiro retorno à Europa com duas memórias importantes. Um era o
tratamento cortês que recebeu dos austríacos e alemães, as mesmas pessoas que o obrigaram a fugir em 1938.
A outra foi uma rara oportunidade que ele teve de tocar com suas próprias mãos alguns manuscritos originais de
Leonardo da Vinci. Ambas as lembranças me influenciaram, mas a última é a que voltei muitas vezes. Ele descreveu
a experiência com reverência, como se tivesse tocado a obra do próprio Deus. Essa, então, era a religião que eu era
criado com: veneração pela criatividade humana e o poder das idéias.
Em 1960, aos 12 anos, descobri o computador e fiquei fascinado com sua capacidade de modelar e re-
crie o mundo. Andei pelas lojas de eletrônicos excedentes na Canal Street em Manhattan (elas ainda estão lá!) E
juntei peças para construir meus próprios dispositivos computacionais. Durante a década de 1960, eu estava tão absorvido no contemporâneo
movimentos musicais, culturais e políticos como meus colegas, mas fiquei igualmente envolvido em uma tendência muito mais obscura:
[Link] 17/349
10/03/2021 ************************************************* ** *
Página 22
a saber, a notável sequência de máquinas que a IBM ofereceu durante aquela década, de sua grande série "7000"
(7070, 7074, 7090, 7094) ao seu pequeno 1620, efetivamente o primeiro "minicomputador". As máquinas foram introduzidas em
intervalos anuais, e cada um era menos caro e mais poderoso do que o anterior, um fenômeno conhecido hoje. eu obtive
acesso a um IBM 1620 e começou a escrever programas para análise estatística e posteriormente para composição musical.
Ainda me lembro da época em 1968, quando fui autorizado a entrar na câmara cavernosa e segura que era então o
o computador mais poderoso da Nova Inglaterra, um IBM 360 Modelo 91 de primeira linha, com um notável milhão de bytes (um
megabyte) de memória "central", uma velocidade impressionante de um milhão de instruções por segundo (um MIPS) e um custo de aluguel
de apenas mil dólares por hora. Eu havia desenvolvido um programa de computador que combinava alunos do ensino médio com
faculdades, e observei fascinado enquanto as luzes do painel frontal dançavam em um padrão distinto enquanto a máquina
processou a inscrição de cada aluno. 3 Embora eu estivesse bastante familiarizado com cada linha de código, ainda assim parecia
como se o computador estivesse imerso em pensamentos quando as luzes diminuíram por vários segundos no desenlace de cada
ciclo. Na verdade, ele poderia funcionar perfeitamente em dez segundos, o que levamos dez horas para fazer manualmente com muito menos precisão.
Como um inventor na década de 1970, percebi que minhas invenções precisavam fazer sentido em termos de capacitação
tecnologias e forças de mercado que existiriam quando as invenções foram introduzidas, já que esse mundo seria muito
diferente daquele em que foram concebidos. Comecei a desenvolver modelos de como tecnologias distintas -
eletrônicos, comunicações, processadores de computador, memória, armazenamento magnético e outros - desenvolvidos e como estes
mudanças propagaram-se pelos mercados e, em última instância, por nossas instituições sociais. Percebi que a maioria das invenções falham não porque
o departamento de P&D não consegue fazer com que eles funcionem, mas porque o momento está errado. Inventar é muito parecido com surfar: você tem
para antecipar e pegar a onda no momento certo.
Meu interesse em tendências de tecnologia e suas implicações ganhou vida própria na década de 1980, e comecei a usar
meus modelos para projetar e antecipar tecnologias futuras, inovações que apareceriam em 2000, 2010, 2020 e
além. Isso me permitiu inventar com as capacidades do futuro, concebendo e projetando invenções usando
essas capacidades futuras. Em meados da década de 1980, escrevi meu primeiro livro, The Age of Intelligent Machines . 4 incluiu
previsões extensas (e razoavelmente precisas) para as décadas de 1990 e 2000, e terminaram com o espectro da máquina
inteligência tornando-se indistinguível daquela de seus progenitores humanos na primeira metade do vigésimo primeiro
século. Parecia uma conclusão comovente e, em qualquer caso, pessoalmente achei difícil olhar além
transformando um resultado.
Nos últimos vinte anos, passei a apreciar uma meta-ideia importante: que o poder das ideias para transformar
o próprio mundo está se acelerando. Embora as pessoas concordem prontamente com esta observação quando é simplesmente declarada, relativamente
poucos observadores realmente apreciam suas implicações profundas. Nas próximas décadas, teremos a oportunidade
para aplicar ideias para superar problemas antigos - e introduzir alguns problemas novos ao longo do caminho.
Durante a década de 1990, reuni dados empíricos sobre a aparente aceleração de todas as tecnologias relacionadas à informação
e procurou refinar os modelos matemáticos subjacentes a essas explorações. Eu desenvolvi uma teoria que chamo de lei de
retornos acelerados, o que explica por que a tecnologia e os processos evolutivos em geral progridem de forma exponencial
moda. 5 Em The Age of Spiritual Machines (ASM), que escrevi em 1998, procurei articular a natureza humana
a vida como ela existiria além do ponto em que a máquina e a cognição humana se turvassem. Na verdade, eu vi essa época como um
Colaboração cada vez mais íntima entre nossa herança biológica e um futuro que transcende a biologia.
Desde a publicação do ASM, comecei a refletir sobre o futuro de nossa civilização e sua relação com nossos
lugar no universo. Embora possa parecer difícil imaginar as capacidades de uma civilização futura cujo
inteligência supera amplamente a nossa, nossa capacidade de criar modelos de realidade em nossa mente nos permite articular
percepções significativas sobre as implicações desta fusão iminente de nosso pensamento biológico com o não biológico
inteligência que estamos criando. Esta, então, é a história que desejo contar neste livro. A história é baseada na ideia de que
Temos a capacidade de compreender nossa própria inteligência - para acessar nosso próprio código-fonte, se você quiser - e, em seguida, revisar
e expandi-lo.
Alguns observadores questionam se somos capazes de aplicar nosso próprio pensamento para compreender nosso próprio pensamento.
O pesquisador de IA Douglas Hofstadter pondera que "pode ser simplesmente um acidente do destino que nossos cérebros sejam muito fracos para
entender a si mesmos. Pense na girafa humilde, por exemplo, cujo cérebro está obviamente muito abaixo do nível necessário
Página 23
para a autocompreensão - embora seja notavelmente semelhante ao nosso cérebro. 6 No entanto, já tivemos sucesso na modelagem
partes de nossos neurônios cerebrais e regiões neurais substanciais e a complexidade de tais modelos está crescendo rapidamente.
Nosso progresso na engenharia reversa do cérebro humano, uma questão fundamental que descreverei em detalhes neste livro,
Demonstra que realmente temos a capacidade de compreender, modelar e estender nossa própria inteligência. Isto é
um aspecto da singularidade de nossa espécie: nossa inteligência está suficientemente acima do limite crítico necessário
para nós escalar nossa própria habilidade para alturas irrestritas de poder criativo e temos o apêndice oponível (nosso
[Link] 18/349
10/03/2021 ************************************************* ** *
polegares) necessários para manipular o universo à nossa vontade.
Uma palavra sobre magia: quando estava lendo o Tom Swift Jr. livros, eu também era um mágico ávido. Curti a delícia
de minhas audiências experimentando transformações aparentemente impossíveis da realidade. Na minha adolescência, substituí meu
magia de salão com projetos de tecnologia. Eu descobri que ao contrário de meros truques, a tecnologia não perde seu transcendente
poder quando seus segredos são revelados. Muitas vezes me lembro da terceira lei de Arthur C. Clarke, de que "qualquer
a tecnologia avançada é indistinguível da magia. "
Considere as histórias de Harry Potter de JK Rowling a partir dessa perspectiva. Esses contos podem ser imaginários, mas eles
não são visões irracionais do nosso mundo, visto que ele existirá apenas algumas décadas a partir de agora. Essencialmente todo o Potter
a "mágica" será realizada por meio das tecnologias que explorarei neste livro. Jogando quadribol e se transformando
pessoas e objetos em outras formas serão viáveis em ambientes de realidade virtual de imersão total, bem como em ambientes reais
realidade, usando dispositivos em nanoescala. Mais duvidosa é a reversão do tempo (conforme descrito em Harry Potter e o Prisioneiro de
Azkaban ), embora propostas sérias tenham sido apresentadas para realizar algo nesse sentido
(sem dar origem a paradoxos de causalidade), pelo menos para bits de informação, que essencialmente é o que compreendemos.
(Veja a discussão no capítulo 3 sobre os limites finais da computação.)
Considere que Harry libera sua magia proferindo o encantamento correto. Claro, descobrindo e
aplicar esses encantamentos não são questões simples. Harry e seus colegas precisam obter a sequência, procedimentos e
ênfase exatamente correta. Esse processo é justamente nossa experiência com tecnologia. Nossos encantamentos são as fórmulas
e algoritmos subjacentes à nossa magia moderna. Com a sequência certa, podemos fazer um computador ler um livro
em voz alta, entender a fala humana, antecipar (e prevenir) um ataque cardíaco ou prever o movimento de uma bolsa de valores
contenção. Se um encantamento estiver um pouco errado, a magia é muito enfraquecida ou não funciona de jeito nenhum.
Alguém pode objetar a esta metáfora apontando que os encantamentos de Hogwart são breves e, portanto, não
contêm muitas informações em comparação com, digamos, o código de um programa de software moderno. Mas os métodos essenciais de
a tecnologia moderna geralmente compartilha a mesma brevidade. Os princípios de operação de avanços de software, como a fala
o reconhecimento pode ser escrito em apenas algumas páginas de fórmulas. Muitas vezes, um avanço importante é uma questão de aplicar uma pequena mudança
a uma única fórmula.
A mesma observação vale para as "invenções" da evolução biológica: considere que a diferença genética
Entre chimpanzés e humanos, por exemplo, existem apenas algumas centenas de milhares de bytes de informação. Embora
os chimpanzés são capazes de alguns feitos intelectuais, essa pequena diferença em nossos genes foi suficiente para nossa espécie criar
a magia da tecnologia.
Muriel Rukeyser diz que "o universo é feito de histórias, não de átomos." No capítulo 7, eu me descrevo como um
"patternist", alguém que vê os padrões de informação como a realidade fundamental. Por exemplo, as partículas
compor meu cérebro e corpo muda em semanas, mas há uma continuidade nos padrões que essas partículas fazem.
Uma história pode ser considerada um padrão significativo de informação, então podemos interpretar o aforismo de Muriel Rukeyser a partir de
esta perspectiva. Este livro, então, é a história do destino da civilização homem-máquina, um destino que viemos
para se referir como a Singularidade.
Página 24
CAPÍTULO UM
As Seis Épocas
—A RTHUR S CHOPENHAUER
eu não tenho certeza quando tomei conhecimento da Singularidade. Devo dizer que foi um despertar progressivo. No
Quase meio século depois de mergulhar em informática e tecnologias relacionadas, procurei entender
o significado e o propósito da convulsão contínua que tenho testemunhado em muitos níveis. Aos poucos, eu tenho
Tome consciência de um evento transformador que se aproxima na primeira metade do século XXI. Assim como um buraco negro no espaço
Altera drasticamente os padrões de matéria e energia, acelerando em direção ao seu horizonte de eventos, esta Singularidade iminente
Em nosso futuro está cada vez mais transformando cada instituição e aspecto da vida humana, da sexualidade à espiritualidade.
O que é, então, a Singularidade? É um período futuro durante o qual o ritmo das mudanças tecnológicas será tão rápido,
[Link] 19/349
10/03/2021 ************************************************* ** *
seu impacto é tão profundo que a vida humana será irreversivelmente transformada. Embora nem utópica nem distópica, esta época
vai transformar os conceitos em que contamos para dar sentido às nossas vidas, dos nossos modelos de negócios ao ciclo de
vida humana, incluindo a própria morte. Compreender a Singularidade irá alterar nossa perspectiva sobre o significado de nosso
passado e as ramificações para o nosso futuro. Para realmente entender isso muda inerentemente a visão de uma pessoa da vida em geral e
sua própria vida particular. Eu considero alguém que entende a Singularidade e que refletiu sobre suas implicações
por sua própria vida como um "singularitário". 1
Posso entender por que muitos observadores não aceitam prontamente as implicações óbvias do que chamei de
lei dos retornos acelerados (a aceleração inerente da taxa de evolução, com a evolução tecnológica como um
continuação da evolução biológica), afinal, demorei quarenta anos para conseguir ver o que estava bem na minha frente,
e ainda não posso dizer que estou totalmente confortável com todas as suas consequências.
A ideia-chave subjacente à Singularidade iminente é que o ritmo de mudança de nossa tecnologia criada pelo homem é
acelerando e seus poderes estão se expandindo em um ritmo exponencial. O crescimento exponencial é enganoso. Começa quase
Imperceptivelmente e depois explode com uma fúria inesperada - inesperada, isto é, se alguém não tiver o cuidado de seguir sua
trajetória. (Veja o gráfico "Crescimento Linear vs. Exponencial" na p. 10.)
Considere esta parábola: o dono de um lago quer ficar em casa para cuidar dos peixes do lago e certificar-se de que o lago
em si não ficará coberto de nenúfares, que costumam dobrar seu número a cada poucos dias. Mês depois
mês, ele espera pacientemente, mas apenas pequenas manchas de nenúfares podem ser discernidas, e elas não parecem estar se expandindo em
qualquer forma perceptível. Com os nenúfares cobrindo menos de 1 por cento do lago, o proprietário acha que é seguro levar um
férias e sai com sua família. Quando ele retorna, algumas semanas depois, ele fica chocado ao descobrir que todo o lago
ficou coberto com as almofadas e seus peixes morreram. Dobrando seu número a cada poucos dias, nos últimos sete
duplicações foram suficientes para estender a cobertura dos blocos a todo o lago. (Sete duplicações estenderam seu alcance 128-
.) Esta é a natureza do crescimento exponencial.
Considere Gary Kasparov, que desprezou o estado patético do xadrez de computador em 1992.
o poder do computador a cada ano permitia que um computador o derrotasse apenas cinco anos depois. 2 A lista de maneiras como os computadores podem
agora exceder as capacidades humanas está crescendo rapidamente. Além disso, as antes estreitas aplicações de inteligência computacional
estão gradualmente se ampliando em um tipo de atividade após o outro. Por exemplo, os computadores estão diagnosticando
Página 25
[Link] 20/349
10/03/2021 ************************************************* ** *
Muitos comentaristas sobre essas mudanças focam no que eles percebem como uma perda de algum aspecto vital de nossa humanidade
que resultará desta transição. Essa perspectiva decorre, no entanto, de um mal-entendido sobre o que nossa tecnologia
se tornará. Todas as máquinas que encontramos até agora carecem da sutileza essencial das qualidades biológicas humanas. Embora
a Singularidade tem muitas faces, sua implicação mais importante é esta: nossa tecnologia se igualará e, então, amplamente
O refinamento e a flexibilidade do que consideramos as melhores características humanas.
—M ICHAEL A NISSIMOV
Página 26
Na década de 1950, John von Neumann, o lendário teórico da informação, foi citado como tendo dito que "o sempre acelerado
progresso da tecnologia ... dá a impressão de aproximar-se de alguma singularidade essencial na história da raça
além do qual os assuntos humanos, como os conhecemos, não poderiam continuar. " 3 Von Neumann faz dois importantes
implementa aqui: aceleração e singularidade .
A primeira ideia é que o progresso humano é exponencial (ou seja, ele se expande ao se multiplicar repetidamente por uma constante)
em vez de linear (ou seja, expandindo adicionando repetidamente uma constante).
A segunda é que o crescimento exponencial é sedutor, começando lentamente e praticamente imperceptível, mas além do
joelho da curva torna-se explosivo e profundamente transformador. O futuro é amplamente mal compreendido. Nossos antepassados
Esperavam que fosse muito parecido com seu presente, que tinha sido muito parecido com seu passado. Tendências exponenciais sim
existiam mil anos atrás, mas estavam naquele estágio inicial em que eram tão planos e lentos que
não parecia uma tendência. Como resultado, a expectativa dos observadores de um futuro inalterado foi cumprida. Hoje nós
antecipar o progresso tecnológico contínuo e as repercussões sociais que se seguem. Mas o futuro será muito mais
[Link] 21/349
10/03/2021 ************************************************* ** *
Página 27
Surpreendente do que a maioria das pessoas imagina, porque poucos observadores realmente internalizaram as implicações do fato de que o
a própria taxa de mudança está se acelerando.
A maioria das previsões de longo prazo do que é tecnicamente viável em períodos de tempo futuros subestimam drasticamente o
poder de desenvolvimentos futuros porque eles são baseados no que chamo de visão "linear intuitiva" da história, em vez de
a visão "exponencial histórica". Meus modelos mostram que estamos dobrando a taxa de mudança de paradigma a cada década, como farei
discutir no próximo capítulo. Assim, o século vinte estava gradualmente acelerando para a taxa de progresso de hoje; Está
realizações, portanto, foram equivalentes a cerca de vinte anos de progresso na taxa de 2000
Vinte anos de progresso em apenas quatorze anos (até 2014), e depois faça o mesmo novamente em apenas sete anos. Para expressar
de outra forma, não vivenciaremos cem anos de avanço tecnológico no século XXI; vamos
Testemunho da ordem de vinte mil anos de progresso (novamente, quando medido pela taxa de progresso de hoje ), ou cerca de
Mil vezes maior do que o alcançado no século XX. 4
Percepções equivocadas sobre a forma do futuro surgem com frequência e em uma variedade de contextos. Como um exemplo de
muitos, em um debate recente em que participei sobre a viabilidade da fabricação molecular, um prêmio Nobel
O painelista vencedor descartou as preocupações com a segurança em relação à nanotecnologia, proclamando que "não vamos ver
entidades autoreplicadas por nanoengenharia [dispositivos construídos fragmento por fragmento molecular] por cem anos. "
Salientei que cem anos era uma estimativa razoável e realmente correspondia à minha própria avaliação da quantidade de
o progresso técnico necessário para atingir este marco específico quando medido na taxa de progresso de hoje (cinco vezes
a taxa média de mudança que vimos no século XX). Mas porque estamos dobrando a taxa de progresso a cada
década, veremos o equivalente a um século de progresso - na taxa de hoje - em apenas 25 anos civis.
Da mesma forma, na conferência Future of Life da revista Time , realizada em 2003 para comemorar o quinquagésimo aniversário da
descoberta da estrutura do DNA, todos os palestrantes convidados foram questionados sobre o que eles achavam que os próximos cinquenta anos seriam
ser como. 5 Praticamente todo apresentador olhou para o progresso dos últimos cinquenta anos e usou-o como um modelo para os próximos cinquenta
anos. Por exemplo, James Watson, o codescobridor do DNA, disse que em cinquenta anos teremos drogas que permitirão
comemos o quanto quisermos sem ganhar peso.
Eu respondi: "Cinquenta anos?" Já fizemos isso em camundongos, bloqueando o gene do receptor de insulina de gordura que
Controla o armazenamento de gordura nas células de gordura. Drogas para uso humano (usando interferência de RNA e outras técnicas que iremos
discutir no capítulo 5) estão em desenvolvimento agora e estarão em testes do FDA em vários anos. Eles estarão disponíveis em cinco
a dez anos, não cinquenta. Outras projeções foram igualmente míopes, refletindo as prioridades de pesquisa contemporâneas, em vez
do que as mudanças profundas que o próximo meio século trará. De todos os pensadores nesta conferência, foi principalmente
Bill Joy e eu, que levamos em consideração a natureza exponencial do futuro, embora Joy e eu discordemos sobre a importância de
Essas mudanças, como discutirei no capítulo 8.
As pessoas supõem intuitivamente que a taxa atual de progresso continuará por períodos futuros. Mesmo para aqueles que
existem há tempo suficiente para experimentar como o ritmo de mudança aumenta ao longo do tempo, a intuição não examinada deixa
alguém com a impressão de que a mudança ocorre na mesma taxa que experimentamos mais recentemente. De
da perspectiva do matemático, a razão para isso é que uma curva exponencial parece uma linha reta quando examinada
por apenas um breve período. Como resultado, mesmo comentaristas sofisticados, ao considerar o futuro, normalmente
extrapolar o ritmo atual de mudança nos próximos dez ou cem anos para determinar suas expectativas.
É por isso que descrevo essa maneira de ver o futuro como a visão "linear intuitiva".
Mas uma avaliação séria da história da tecnologia revela que a mudança tecnológica é exponencial.
O crescimento exponencial é uma característica de qualquer processo evolutivo, do qual a tecnologia é o principal exemplo. Você pode
examinar os dados de maneiras diferentes, em escalas de tempo diferentes e para uma ampla variedade de tecnologias, que vão desde
eletrônico para biológico, bem como por suas implicações, variando da quantidade de conhecimento humano ao tamanho do
a economia. A aceleração do progresso e do crescimento se aplica a cada um deles. Na verdade, muitas vezes achamos não apenas simples
crescimento exponencial, mas crescimento exponencial "duplo", o que significa que a taxa de crescimento exponencial (ou seja, o
expoente) está crescendo exponencialmente (por exemplo, consulte a discussão sobre o preço-desempenho da computação em
o próximo capítulo).
Página 28
Muitos cientistas e engenheiros têm o que chamo de "pessimismo do cientista". Muitas vezes, eles estão tão imersos no
Dificuldades e detalhes intrincados de um desafio contemporâneo que eles não conseguem avaliar a longo prazo
implicações de seu próprio trabalho e do campo mais amplo de trabalho em que operam. Da mesma forma, eles não conseguem explicar
As ferramentas muito mais poderosas que eles terão disponíveis com cada nova geração de tecnologia.
[Link] 22/349
10/03/2021 ************************************************* ** *
Os cientistas são treinados para serem céticos, para falar com cautela sobre os atuais objetivos de pesquisa e raramente especular além
a geração atual de busca científica. Esta pode ter sido uma abordagem satisfatória quando uma geração de ciência
E a tecnologia durou mais do que uma geração humana, mas não serve aos interesses da sociedade agora que uma geração de
o progresso científico e tecnológico compreende apenas alguns anos.
Considere os bioquímicos que, em 1990, eram céticos quanto ao objetivo de transcrever todo o genoma humano em um
meros quinze anos. Esses cientistas haviam acabado de passar um ano inteiro transcrevendo apenas um décimo milésimo do genoma.
Assim, mesmo com avanços razoavelmente antecipados, parecia natural para eles que levasse um século, senão mais,
antes que todo o genoma pudesse ser sequenciado.
Ou considere o ceticismo expresso em meados da década de 1980 de que a Internet algum dia seria um fenômeno significativo,
visto que ele incluía apenas dezenas de milhares de nós (também conhecidos como servidores). Na verdade, o número de nós foi
dobrando a cada ano, de modo que provavelmente haveria dezenas de milhões de nós dez anos depois. Mas essa tendência não foi
apreciado por aqueles que lutaram com tecnologia de ponta em 1985, o que permitiu adicionar apenas alguns
mil nós em todo o mundo em um único ano. " 6
O erro conceitual inverso ocorre quando certos fenômenos exponenciais são reconhecidos pela primeira vez e são aplicados em
uma maneira excessivamente agressiva, sem modelar o ritmo de crescimento apropriado. Enquanto o crescimento exponencial ganha velocidade
com o tempo, não é instantâneo. O aumento dos valores de capital (ou seja, os preços do mercado de ações) durante a "Internet
bolha "e bolha de telecomunicações relacionada (1997-2000) foi muito além de qualquer expectativa razoável de
até mesmo crescimento exponencial. Como demonstrarei no próximo capítulo, a adoção real da Internet e do comércio eletrônico
mostram um crescimento exponencial suave durante o boom e a queda; a expectativa excessivamente zelosa de crescimento afetou apenas
avaliações de capital (ações). Vimos erros comparáveis durante as mudanças de paradigma anteriores - por exemplo, durante o
o início da era das ferrovias (1830), quando o equivalente ao boom e à quebra da Internet levou a um frenesi de expansão das ferrovias.
Outro erro que os prognosticadores cometem é considerar as transformações que resultarão de uma única tendência em
mundo do dia como se nada mais fosse mudar. Um bom exemplo é a preocupação de que a extensão radical da vida resultará em
superpopulação e o esgotamento dos recursos materiais limitados para sustentar a vida humana, o que ignora comparativamente
criação de riqueza radical a partir da nanotecnologia e IA forte. Por exemplo, manufatura baseada em nanotecnologia
dispositivos na década de 2020 serão capazes de criar quase qualquer produto físico a partir de matérias-primas baratas e
em formação.
Enfatizo a perspectiva exponencial versus linear porque é a falha mais importante que os prognosticadores
fazer ao considerar as tendências futuras. A maioria das previsões e analistas de tecnologia ignoram completamente este histórico
visão exponencial do progresso tecnológico. Na verdade, quase todas as pessoas que encontro têm uma visão linear do futuro. É por isso
as pessoas tendem a superestimar o que pode ser alcançado no curto prazo (porque tendemos a deixar de fora os detalhes necessários), mas
subestime o que pode ser alcançado a longo prazo (porque o crescimento exponencial é ignorado).
As Seis Épocas
—M ARSHALL M C L UHAN
—Y OGI B ERRA
Página 29
A evolução é um processo de criação de padrões de ordem crescente. Discutirei o conceito de ordem no próximo capítulo; a
a ênfase nesta seção está no conceito de padrões. Eu acredito que é a evolução dos padrões que constitui o
história final do nosso mundo. A evolução funciona indiretamente: cada estágio ou época usa o processamento de informações
métodos da época anterior para criar a próxima. Eu conceituo a história da evolução - tanto biológica quanto
tecnológico - como ocorreu em seis épocas. Como discutiremos, a Singularidade começará com a Época Cinco e
espalhou-se da Terra para o resto do universo na Época Seis.
Época Um: Física e Química. Podemos rastrear nossas origens até um estado que representa as informações em sua base
Estruturas: padrões de matéria e energia. Teorias recentes da gravidade quântica afirmam que o tempo e o espaço são divididos
em quanta discretos, essencialmente fragmentos de informação. Há controvérsia sobre se matéria e energia são
em última análise, digital ou analógica por natureza, mas independentemente da resolução deste problema, sabemos que as estruturas atômicas
armazenar e representar informações discretas.
Algumas centenas de milhares de anos após o Big Bang, os átomos começaram a se formar, à medida que os elétrons ficaram presos nas órbitas
em torno de núcleos consistindo de prótons e nêutrons. A estrutura elétrica dos átomos os tornava "pegajosos". Química era
Nasceu alguns milhões de anos depois, quando os átomos se juntaram para criar estruturas relativamente estáveis chamadas moléculas. De todos os
elementos, o carbono provou ser o mais versátil; É capaz de formar ligações em quatro direções (contra uma a três para a maioria
outros elementos), dando origem a estruturas tridimensionais complicadas e ricas em informações.
As regras do nosso universo e o equilíbrio das constantes físicas que governam a interação das forças básicas são
[Link] 23/349
10/03/2021 ************************************************* ** *
tão requintada, delicada e exatamente apropriada para a codificação e evolução da informação (resultando em
complexidade crescente) que se pergunta como uma situação tão extraordinariamente improvável aconteceu. Onde alguns veem um
mão divina, outros vêem nossas próprias mãos - ou seja, o princípio antrópico, que mantém isso apenas em um universo que
permitida nossa própria evolução estaríamos aqui para fazer tais perguntas. 7 recentes teorias da física sobre múltiplas
Universos especulam que novos universos são criados em uma base regular, cada um com suas próprias regras exclusivas, mas que a maioria
Estes morrem rapidamente ou continuam sem a evolução de quaisquer padrões interessantes (como os baseados na Terra
A biologia criou) porque suas regras não suportam a evolução de formas cada vez mais complexas. 8 é difícil
imagine como poderíamos testar essas teorias da evolução aplicadas à cosmologia primitiva, mas é claro que as leis físicas
de nosso universo são precisamente o que precisam ser para permitir a evolução de níveis crescentes de ordem e
complexidade. 9
Página 30
Época Dois: Biologia e DNA. Na segunda época, começando vários bilhões de anos atrás, os compostos à base de carbono
tornou-se cada vez mais intrincado até que agregações complexas de moléculas formaram mecanismos auto-replicantes, e a vida
originado. Em última análise, os sistemas biológicos desenvolveram um mecanismo digital preciso (DNA) para armazenar informações que descrevem
uma sociedade maior de moléculas. Esta molécula e seu mecanismo de suporte de códons e ribossomos permitiu um registro para
[Link] 24/349
10/03/2021 ************************************************* ** *
ser mantido dos experimentos evolutivos desta segunda época.
Época três: cérebros. Cada época continua a evolução da informação por meio de uma mudança de paradigma para um nível mais alto
de "indireção". (Ou seja, a evolução usa os resultados de uma época para criar a próxima.) Por exemplo, na terceira época,
A evolução guiada por DNA produziu organismos que podiam detectar informações com seus próprios órgãos sensoriais e processar
e armazenam essa informação em seus próprios cérebros e sistemas nervosos. Isso foi possível pela segunda época
Mecanismos (DNA e informação epigenética de proteínas e fragmentos de RNA que controlam a expressão gênica), que
(Indiretamente) ativou e definiu mecanismos de processamento de informação de terceira época (os cérebros e sistemas nervosos de
organismos). A terceira época começou com a capacidade dos primeiros animais de reconhecer padrões, o que ainda explica o
grande maioria da atividade em nossos cérebros. 10 Em última análise, nossa própria espécie desenvolveu a capacidade de criar mental abstrato
modelos do mundo que experimentamos e para contemplar as implicações racionais desses modelos. Nós temos a habilidade
para redesenhar o mundo em nossas próprias mentes e colocar essas idéias em ação.
Época Quatro: Tecnologia. Combinando a dotação de pensamento racional e abstrato com nosso polegar opositor, nosso
as espécies inauguraram a quarta época e o próximo nível de indireção: a evolução da tecnologia criada pelo homem. Esta
Página 31
Começou com mecanismos simples e evoluiu para autômatos elaborados (máquinas mecânicas automatizadas).
Em última análise, com sofisticados dispositivos computacionais e de comunicação, a própria tecnologia era capaz de detectar,
armazenar e avaliar padrões elaborados de informação. Para comparar a taxa de progresso da evolução biológica de
inteligência à da evolução tecnológica, considere que os mamíferos mais avançados adicionaram cerca de um cúbico
polegada de matéria cerebral a cada cem mil anos, enquanto estamos praticamente dobrando a capacidade computacional de
computadores todos os anos (veja o próximo capítulo). Claro, nem o tamanho do cérebro nem a capacidade do computador são os únicos
determinante da inteligência, mas eles representam fatores determinantes.
Se colocarmos os marcos principais da evolução biológica e do desenvolvimento tecnológico humano em um único gráfico
plotando o eixo x (número de anos atrás) e o eixo y (o tempo de mudança de paradigma) em escalas logarítmicas, encontramos um
razoavelmente em linha reta (aceleração contínua), com evolução biológica levando diretamente a dirigida por humanos
desenvolvimento. 11
[Link] 25/349
10/03/2021 ************************************************* ** *
Página 32
Os números acima refletem minha visão dos principais desenvolvimentos na história biológica e tecnológica. Observe, no entanto,
que a linha reta, demonstrando a aceleração contínua da evolução, não depende de minha seleção particular
de eventos. Muitos observadores e livros de referência compilaram listas de eventos importantes na área biológica e tecnológica
evolução, cada qual com suas próprias idiossincrasias. Apesar da diversidade de abordagens, no entanto, se combinarmos listas
de uma variedade de fontes (por exemplo, a Encyclopaedia Britannica , o Museu Americano de História Natural, Carl
"Calendário cósmico" de Sagan e outros), observamos a mesma óbvia aceleração suave. O seguinte enredo
combina quinze listas diferentes de eventos importantes. 12 Uma vez que diferentes pensadores atribuem datas diferentes para o mesmo evento, e
Listas diferentes incluem eventos semelhantes ou sobrepostos selecionados de acordo com critérios diferentes, vemos um esperado
"espessamento" da linha de tendência devido ao "ruído" (variância estatística) desses dados. A tendência geral, no entanto, é
muito claro.
Página 33
[Link] 26/349
10/03/2021 ************************************************* ** *
O físico e teórico da complexidade Theodore Modis analisou essas listas e determinou vinte e oito grupos de
eventos (que ele chamou de marcos canônicos) combinando eventos idênticos, semelhantes e / ou relacionados de diferentes
listas. 13 Este processo remove essencialmente o "ruído" (por exemplo, a variabilidade de datas entre as listas) das listas,
revelando novamente a mesma progressão:
Página 34
[Link] 27/349
10/03/2021 ************************************************* ** *
Os atributos que estão crescendo exponencialmente nesses gráficos são ordem e complexidade, conceitos que exploraremos em
o próximo capítulo. Essa aceleração corresponde ao nosso senso comum. Um bilhão de anos atrás, não aconteceu muita coisa
ao longo de até um milhão de anos. Mas um quarto de milhão de anos atrás, eventos marcantes, como a evolução de nosso
as espécies ocorreram em intervalos de tempo de apenas cem mil anos. Em tecnologia, se voltarmos cinquenta mil anos,
não aconteceu muita coisa em um período de mil anos. Mas, no passado recente, vemos novos paradigmas, como o mundo
Wide Web, o progresso do início à adoção em massa (o que significa que são usados por um quarto da população em
países avançados) dentro de apenas uma década.
Época Cinco: A Fusão da Tecnologia Humana com a Inteligência Humana. Olhando para o futuro por várias décadas, o
A singularidade começará com a quinta época. Resultará da fusão do vasto conhecimento embutido em nosso próprio
cérebros com a capacidade, velocidade e capacidade de compartilhamento de conhecimento muito maiores de nossa tecnologia. A quinta época vai
permitir que nossa civilização homem-máquina transcenda as limitações do cérebro humano de meros cem trilhões extremamente
conexões lentas. 14
A Singularidade nos permitirá superar os antigos problemas humanos e ampliar amplamente a criatividade humana. Vamos
Preserve e aprimore a inteligência que a evolução nos concedeu ao superar as profundas limitações de
evolução biológica. Mas a Singularidade também amplificará a capacidade de agir sobre nossas inclinações destrutivas, então é completo
a história ainda não foi escrita.
Página 35
Época Seis: O Universo Acorda. Discutirei esse tópico no capítulo 6, sob o título "... no Intelligent
Destino do Cosmos. "No rescaldo da Singularidade, a inteligência derivou de suas origens biológicas no ser humano."
cérebros e suas origens tecnológicas na engenhosidade humana, começarão a saturar a matéria e a energia em seu meio. Será
Consiga isso reorganizando matéria e energia para fornecer um nível ótimo de computação (com base nos limites que iremos
discuta no capítulo 3) para se espalhar a partir de sua origem na Terra.
Atualmente, entendemos a velocidade da luz como um fator limitante na transferência de informações. Contornando isso
limite deve ser considerado altamente especulativo, mas há indícios de que essa restrição pode ser substituída. 15 se
se houver desvios sutis, no final das contas iremos aproveitar essa habilidade superluminal. Se nossa civilização infunde
O resto do universo com sua criatividade e inteligência rápida ou lentamente depende de sua imutabilidade. Em qualquer evento
a matéria e os mecanismos "mudos" do universo serão transformados em formas extraordinariamente sublimes de inteligência,
que constituirá a sexta época na evolução dos padrões de informação.
Este é o destino final da Singularidade e do universo.
Você sabe, as coisas vão ser realmente diferentes! ... Não, não, quero dizer muito diferente!
Quais são as consequências deste evento? Quando a inteligência superior à humana impulsiona o progresso, que
o progresso será muito mais rápido. Na verdade, não parece haver razão para que o próprio progresso não envolva o
criação de entidades ainda mais inteligentes - em uma escala de tempo ainda mais curta. A melhor analogia que vejo é com o
Passado evolucionário: os animais podem se adaptar a problemas e fazer invenções, mas geralmente não mais rápido do que o natural
a seleção pode fazer seu trabalho - o mundo atua como seu próprio simulador no caso da seleção natural. Nós humanos
ter a capacidade de internalizar o mundo e conduzir "e se" em nossas cabeças; Podemos resolver muitos problemas
milhares de vezes mais rápido do que a seleção natural. Agora, criando os meios para executar essas simulações em
Em velocidades muito mais altas, estamos entrando em um regime tão radicalmente diferente de nosso passado humano quanto nós, humanos, somos
dos animais inferiores. Do ponto de vista humano, essa mudança será um descarte de todos os
Regras anteriores, talvez em um piscar de olhos, uma fuga exponencial além de qualquer esperança de controle.
[Link] 28/349
10/03/2021 ************************************************* ** *
-V ERNOR V INGE , "T HE t ECNOLÓGICO S INGULARITY ," 1993
Deixe uma máquina ultrainteligente ser definida como uma máquina que pode superar de longe todas as atividades intelectuais de
qualquer homem, por mais inteligente que seja. Uma vez que o design de máquinas é uma dessas atividades intelectuais, um ultrainteligente
máquina poderia projetar máquinas ainda melhores; então, sem dúvida, haveria uma "explosão de inteligência",
e a inteligência do homem ficaria para trás. Assim, a primeira máquina ultrainteligente é a última
invenção que o homem sempre precisa fazer.
Para colocar o conceito de Singularidade em outra perspectiva, vamos explorar a história da própria palavra. "Singularidade" é um
Palavra em inglês que significa um evento único com, bem, implicações singulares. A palavra foi adotada por matemáticos para
denotam um valor que transcende qualquer limitação finita, como a explosão de magnitude que resulta ao dividir um
constante por um número que fica cada vez mais perto de zero. Considere, por exemplo, a função simples y = l / x . Enquanto o
valor de x se aproxima de zero, o valor da função ( y ) explode para valores cada vez maiores.
Página 36
Tal função matemática nunca atinge realmente um valor infinito, uma vez que dividir por zero é matematicamente
"indefinido" (impossível de calcular). Mas o valor de y excede qualquer limite finito possível (aproxima-se do infinito) à medida que o
divisor x se aproxima de zero.
O próximo campo a adotar a palavra foi astrofísica. Se uma estrela massiva sofre uma explosão de supernova, seu remanescente
eventualmente entra em colapso ao ponto de volume aparentemente zero e densidade infinita, e uma "singularidade" é criada em seu
Centro. Como a luz era considerada incapaz de escapar da estrela após atingir essa densidade infinita, 16 foi chamada de
buraco negro. 17 Constitui uma ruptura no tecido do espaço e do tempo.
Uma teoria especula que o próprio universo começou com tal Singularidade. 18 Curiosamente, no entanto, o evento
horizonte (superfície) de um buraco negro é de tamanho J finito, e a força gravitacional é apenas teoricamente infinita no tamanho zero
centro do buraco negro. Em qualquer local que possa realmente ser medido, as forças são finitas, embora extremamente
ampla.
A primeira referência à Singularidade como evento capaz de romper o tecido da história humana é John von.
Declaração de Neumann citada acima. Na década de 1960, IJ Good escreveu sobre uma "explosão de inteligência" resultante de
máquinas inteligentes projetando sua próxima geração sem intervenções humanas. Vernor Vinge, um matemático e
cientista da computação da San Diego State University, escreveu sobre uma "singularidade tecnológica" que se aproxima rapidamente em um
artigo para a revista Omni em 1983 e em um romance de ficção científica, Marooned in Realtime , em 1986. 19
Meu livro de 1989, The Age of Intelligent Machines , apresentou um futuro inevitavelmente direcionado para as máquinas
Excedendo a inteligência humana na primeira metade do século XXI. 20 Livro de Hans Moravec, de 1988, Mind Children
chegou a uma conclusão semelhante ao analisar a progressão da robótica. 21 Em 1993, Vinge apresentou um artigo a um NASA-
simpósio organizado que descreveu a Singularidade como um evento iminente resultante principalmente do advento de
Entidades com inteligência superior à humana, que Vinge via como o prenúncio de um fenômeno em fuga. 22 meu
[Link] 29/349
10/03/2021 ************************************************* ** *
O livro deíntima
conexão 1999,entre
The Age
nossaofinteligência
Spiritual Machines:
biológicaWhen Computersartificial
e a inteligência Excceedque
Human Intelligence
estamos criando. ,23descreveu
Hans a crescente
O livro de Moravec Robot: Mere Machine to Transcendent Mind , também publicado em 1999, descreve os robôs do
Página 37
2040 como nossos "herdeiros evolucionários", máquinas que "crescerão conosco, aprenderão nossas habilidades e compartilharão nossos objetivos e valores, ...
filhos de nossas mentes. " 24 Os livros do acadêmico australiano Damien Broderick de 1997 e 2001, ambos intitulados The Spike , foram analisados.
o impacto generalizado da fase extrema de aceleração da tecnologia antecipada dentro de várias décadas. 25 em um
extensa série de escritos, John Smart descreveu a Singularidade como o resultado inevitável do que ele chama de "MEST"
(matéria, energia, espaço e tempo) compressão. 26
Do meu ponto de vista, a Singularidade tem muitas faces. Representa a fase quase vertical de crescimento exponencial
isso ocorre quando a taxa é tão extrema que a tecnologia parece estar se expandindo a uma velocidade infinita. Claro, de um
perspectiva matemática, não há descontinuidade, nem ruptura, e as taxas de crescimento permanecem finitas, embora
extraordinariamente grande. Mas a partir de nossa estrutura atualmente limitada, este evento iminente parece ser um agudo e abrupto
quebra na continuidade do progresso. Enfatizo a palavra "atualmente" porque uma das implicações salientes do
A singularidade será uma mudança na natureza de nossa capacidade de compreensão. Nós nos tornaremos muito mais inteligentes à medida que nos fundirmos
com nossa tecnologia.
O ritmo do progresso tecnológico pode continuar a acelerar indefinidamente? Não existe um ponto em que os humanos são
Incapaz de pensar rápido o suficiente para acompanhar? Para humanos não aprimorados, claramente. Mas o que 1.000 cientistas, cada um
1.000 vezes mais inteligente do que os cientistas humanos hoje, e cada um operando 1.000 vezes mais rápido do que os contemporâneos
humanos (porque o processamento de informações em seus cérebros primordialmente não biológicos é mais rápido) realizam? 1
ano cronológico seria como um milênio para eles. 27 O que eles inventariam?
Bem, para começar, eles criariam tecnologia para se tornarem ainda mais inteligentes (porque seus
inteligência não tem mais capacidade fixa). Eles mudariam seus próprios processos de pensamento para capacitá-los a pensar
Ainda mais rápido. Quando os cientistas se tornassem um milhão de vezes mais inteligentes e operassem um milhão de vezes mais rápido, uma hora
resultar em um século de progresso (em termos atuais).
A Singularidade envolve os seguintes princípios, que irei documentar, desenvolver, analisar e contemplar
no restante deste livro:
•A taxa de mudança de paradigma (inovação técnica) está se acelerando, agora dobrando a cada década. 28
•O poder (preço-desempenho, velocidade, capacidade e largura de banda) das tecnologias da informação está crescendo
exponencialmente em um ritmo ainda mais rápido, agora dobrando a cada ano. 29 Este princípio se aplica a uma ampla gama de
medidas, incluindo a quantidade de conhecimento humano.
• Para as tecnologias de informação, há um segundo nível de crescimento exponencial: ou seja, o crescimento exponencial no
taxa de crescimento exponencial (o expoente). O motivo: à medida que uma tecnologia se torna mais econômica, mais
Os recursos são implantados para seu avanço, de modo que a taxa de crescimento exponencial aumenta com o tempo. Pra
Por exemplo, a indústria de computadores na década de 1940 consistia em um punhado de projetos agora historicamente importantes. Hoje
A receita total na indústria de computadores é de mais de um trilhão de dólares, então os orçamentos de pesquisa e desenvolvimento são
comparativamente mais alto.
•A varredura do cérebro humano é uma dessas tecnologias que estão melhorando exponencialmente. Como vou mostrar no capítulo 4, o
a resolução temporal e espacial e a largura de banda da varredura do cérebro dobram a cada ano. Estamos agora
Obter as ferramentas suficientes para iniciar a engenharia reversa séria (decodificação) dos princípios de
Operação. Já temos modelos e simulações impressionantes de algumas dezenas de várias centenas do cérebro
regiões. Dentro de duas décadas, teremos uma compreensão detalhada de como todas as regiões do cérebro humano
trabalhar.
• Teremos o hardware necessário para emular a inteligência humana com supercomputadores até o final deste
década e com dispositivos do tamanho de computadores pessoais até o final da década seguinte. Teremos efetivo
modelos de software de inteligência humana em meados da década de 2020.
• Com o hardware e o software necessários para emular totalmente a inteligência humana, podemos esperar que os computadores
passar no teste de Turing, indicando inteligência indistinguível daquela dos humanos biológicos, ao final do
2020s. 30
Página 38
[Link] 30/349
10/03/2021 ************************************************* ** *
• Quando atingirem este nível de desenvolvimento, os computadores serão capazes de combinar os pontos fortes tradicionais de
inteligência humana com os pontos fortes da inteligência da máquina.
• Ospontos fortes tradicionais da inteligência humana incluem uma capacidade formidável de reconhecer padrões. O maciçamente
A natureza paralela e auto-organizada do cérebro humano é uma arquitetura ideal para reconhecer padrões que são
com base em propriedades sutis e invariáveis. Os humanos também são capazes de aprender novos conhecimentos aplicando insights
e inferir princípios da experiência, incluindo informações coletadas por meio da linguagem. Uma capacidade chave de
a inteligência humana é a capacidade de criar modelos mentais da realidade e de conduzir experimentos mentais do tipo "e se"
por vários aspectos desses modelos.
• Os pontos fortes tradicionais da máquina de inteligência incluem a capacidade de lembrar bilhões de fatos com precisão
recorde-os instantaneamente.
• Outravantagem da inteligência não biológica é que uma vez que uma habilidade é dominada por uma máquina, ela pode ser
executado repetidamente em alta velocidade, com ótima precisão e sem cansaço.
• Talvezo mais importante, as máquinas podem compartilhar seus conhecimentos em velocidade extremamente alta, em comparação com o próprio
velocidade lenta de compartilhamento de conhecimento humano por meio da linguagem.
•A inteligência não biológica será capaz de baixar habilidades e conhecimentos de outras máquinas, eventualmente também
de humanos.
• As máquinasirão processar e trocar sinais perto da velocidade da luz (cerca de trezentos milhões de metros por
segundo), em comparação com cerca de cem metros por segundo para os sinais eletroquímicos usados em
cérebros de mamíferos. 31 Essa relação de velocidade é de pelo menos três milhões para um.
• A usinagem está ligada Tenha o acesso à Internet à distância via The To All O conhecimento de nosso Homem-Máquina está na Civilization And Be
capaz de dominar todo esse conhecimento.
• As máquinas podem reunir seus recursos, inteligência e memórias. Duas máquinas - ou um milhão de máquinas - podem
juntem-se para se tornarem um e depois se separem novamente. Várias máquinas podem fazer as duas coisas ao mesmo tempo:
torne-se um e separe-se simultaneamente. Os humanos chamam isso de apaixonar-se, mas nossa capacidade biológica de fazer isso é
fugaz e não confiável.
•A combinação dessas forças tradicionais (a capacidade de reconhecimento de padrões da inteligência humana biológica
e a velocidade, capacidade de memória e precisão, e habilidades de compartilhamento de conhecimento e habilidade de não biológicos
inteligência) será formidável.
•A inteligência da máquina terá total liberdade de design e arquitetura (ou seja, eles não serão limitados
por limitações biológicas, como a velocidade de mudança lenta de nossas conexões interneuronais ou um tamanho de crânio fixo)
bem como desempenho consistente em todos os momentos.
• Uma vez que a inteligência não biológica combina as forças tradicionais de humanos e máquinas, o
porção não biológica da inteligência de nossa civilização continuará a se beneficiar da dupla exponencial
crescimento do preço-desempenho, velocidade e capacidade da máquina.
• Uma vez que as máquinas alcançam a capacidade de projetar e desenvolver tecnologia como os humanos, apenas em velocidades muito mais altas
e capacidades, eles terão acesso aos seus próprios designs (código-fonte) e a habilidade de manipulá-los.
Os humanos agora estão realizando algo semelhante por meio da biotecnologia (mudando a genética e outras
processos de informação subjacentes à nossa biologia), mas de uma forma muito mais lenta e limitada do que
as máquinas serão capazes de alcançar, modificando seus próprios programas.
• : a biologia
se tornará limitações inerentes. Por exemplo, todo organismo vivo deve ser construído a partir de proteínas que são dobradas
de cadeias unidimensionais de aminoácidos. Mecanismos baseados em proteínas carecem de força e velocidade. Nós
será capaz de fazer a reengenharia de todos os órgãos e sistemas em nossos corpos biológicos e cérebros para serem muito mais
capaz.
• Como discutiremos no capítulo 4, a inteligência humana tem uma certa quantidade de plasticidade (capacidade de mudar sua
estrutura), mais do que se pensava anteriormente. Mas a arquitetura do cérebro humano é, no entanto,
profundamente limitado. Por exemplo, há espaço para apenas cerca de cem trilhões de conexões interneuronais em
cada um de nossos crânios. Uma mudança genética fundamental que permitiu a maior capacidade cognitiva dos humanos em comparação com
Página 39
o de nossos ancestrais primatas foi o desenvolvimento de um córtex cerebral maior, bem como o desenvolvimento de
Aumento do volume de tecido de matéria cinzenta em certas regiões do cérebro. 32 Essa mudança ocorreu, no entanto, no
escala de tempo muito lenta de evolução biológica e ainda envolve um limite inerente à capacidade do cérebro. Maquinas
serão capazes de reformar seus próprios projetos e aumentar suas próprias capacidades sem limites. Usando
projetos baseados em nanotecnologia, suas capacidades serão muito maiores do que cérebros biológicos sem tamanho aumentado
ou consumo de energia.
• As máquinastambém se beneficiarão com o uso de circuitos moleculares tridimensionais muito rápidos. Circuitos eletrônicos de hoje
são mais de um milhão de vezes mais rápidas do que a comutação eletroquímica usada nos cérebros dos mamíferos.
Os circuitos moleculares de amanhã serão baseados em dispositivos como nanotubos, que são minúsculos cilindros de carbono
átomos que medem cerca de dez átomos de diâmetro e são quinhentas vezes menores do que hoje à base de silício
transistores. Uma vez que os sinais têm menos distância para viajar, eles também serão capazes de operar a terahertz (trilhões de
velocidades de operações por segundo) em comparação com as velocidades de alguns gigahertz (bilhões de operações por segundo) de
chips atuais.
•A ligação é gratuita.O Of Change é tecnológico Não se limite às velocidades mentais humanas. A inteligência da máquina vai melhorar
[Link] 31/349
10/03/2021 ************************************************* ** *
Suas próprias habilidades em um ciclo de feedback que a inteligência humana sem ajuda não será capaz de seguir.
• Este ciclo de melhoria iterativa da inteligência da máquina em seu próprio projeto se tornará cada vez mais rápido. Isto está em
fato exatamente o que é previsto pela fórmula para a aceleração contínua da taxa de mudança de paradigma. Um dos
objeções que foram levantadas para a continuação da aceleração da mudança de paradigma é que, em última análise,
torna-se muito rápido para os humanos seguirem e, portanto, argumenta-se, isso não pode acontecer. No entanto, a mudança
Da inteligência biológica à não-biológica, a tendência continuará.
• Junto
com o ciclo de melhoria acelerado da inteligência não biológica, a nanotecnologia permitirá o
manipulação da realidade física no nível molecular.
• A nanotecnologiaestá habilitada. O projeto de nanobots: em um robô projetado no nível molecular, em microns redondos medidos
(milionésimos de metro), como "respirócitos" (glóbulos vermelhos mecânicos). 33 nanobots terão uma miríade de funções
Dentro do corpo humano, incluindo a reversão do envelhecimento humano (na medida em que esta tarefa ainda não terá sido
concluída por meio de biotecnologia, como engenharia genética).
• Nanobots irão interagir com neurônios biológicos para estender amplamente a experiência humana, criando realidade virtual a partir de
dentro do sistema nervoso.
• Bilhões de nanobots nos capilares do cérebro também estenderão amplamente a inteligência humana.
• Uma vez que uma inteligência não biológica se firma no cérebro humano (isso se tornará o já iniciado com computadorizado
implantes neurais), a inteligência da máquina em nossos cérebros crescerá exponencialmente (como tem acontecido o tempo todo),
pelo menos dobrando de potência a cada ano. Em contraste, a inteligência biológica é efetivamente de capacidade fixa. Assim, o
A porção não biológica de nossa inteligência acabará por predominar.
• Os nanobots também melhorarão o meio ambiente, revertendo a poluição da industrialização anterior.
• Nanobots chamados foglets que podem manipular imagens e ondas sonoras trarão as qualidades de metamorfose do virtual
realidade para o mundo real. 34
•A capacidade humana de compreender e responder adequadamente à emoção (a chamada inteligência emocional) é uma
das formas de inteligência humana que serão compreendidas e dominadas pela futura inteligência da máquina. Alguns
nossas respostas emocionais são ajustadas para otimizar nossa inteligência no contexto de nossa limitação e fragilidade biológica
corpos. A inteligência da máquina futura também terá "corpos" (por exemplo, corpos virtuais em realidade virtual, ou
projeções na realidade real usando foglets), a fim de interagir com o mundo, mas esses corpos nanoengenharia
ser muito mais capaz e durável do que corpos humanos biológicos. Assim, algumas das respostas "emocionais" de
A inteligência da máquina futura será reprojetada para refletir suas capacidades físicas amplamente aprimoradas. 35
•À medida que a realidade virtual de dentro do sistema nervoso se torna competitiva com a realidade real em termos de resolução
E credibilidade, nossas experiências ocorrerão cada vez mais em ambientes virtuais.
Página 40
• Na realidade virtual, podemos ser uma pessoa diferente tanto física quanto emocionalmente. Na verdade, outras pessoas (como
seu parceiro romântico) será capaz de selecionar um corpo diferente para você do que você selecionaria para si mesmo (e vice-versa
versa).
•A lei dos retornos acelerados continuará até que a inteligência não biológica chegue perto de "saturar" o
matéria e energia em nossa vizinhança do universo com nossa inteligência homem-máquina. Por saturar, quero dizer
utilizando os padrões de matéria e energia para computação em um grau ideal, com base em nossa compreensão do
física da computação. À medida que nos aproximamos desse limite, a inteligência de nossa civilização continuará sua expansão
em capacidade, espalhando-se em direção ao resto do universo. A velocidade desta expansão irá rapidamente
Alcance a velocidade máxima na qual as informações podem viajar.
• No final
das contas, o universo inteiro ficará saturado com nossa inteligência. Este é o destino do universo.
(Veja o capítulo 6.) Vamos determinar nosso próprio destino, em vez de tê-lo determinado pelo atual "estúpido", simples,
forças mecânicas que governam a mecânica celeste.
•O tempo que o universo levará para se tornar inteligente até este ponto depende se o
a velocidade da luz é um limite imutável. Há indícios de possíveis exceções sutis (ou evasões) para
esse limite, que, se existir, a vasta inteligência da nossa civilização neste tempo futuro poderá explorar.
Esta, então, é a Singularidade. Alguns diriam que não podemos compreender, pelo menos com nosso nível atual de
entendimento. Por esse motivo, não podemos olhar além de seu horizonte de eventos e dar um sentido completo ao que está além.
Essa é uma das razões pelas quais chamamos essa transformação de Singularidade.
Eu pessoalmente achei difícil, embora não impossível, olhar além desse horizonte de eventos, mesmo depois de ter
pensei sobre suas implicações por várias décadas. Ainda assim, minha opinião é que, apesar de nossas profundas limitações de pensamento,
temos poderes de abstração suficientes para fazer afirmações significativas sobre a natureza da vida após o
Singularidade. Mais importante, a inteligência que surgirá continuará a representar a civilização humana, que
já é uma civilização homem-máquina. Em outras palavras, as futuras máquinas serão humanas, mesmo que não sejam
biológico. Este será o próximo passo na evolução, a próxima mudança de paradigma de alto nível, o próximo nível de indireção.
A maior parte da inteligência de nossa civilização será, em última análise, não biológica. No final deste século, será
Trilhões de trilhões de vezes mais poderoso do que a inteligência humana. 36 No entanto, para abordar as preocupações frequentemente expressas,
Isso não implica o fim da inteligência biológica, mesmo que seja jogada de seu poleiro de superioridade evolutiva.
[Link] 32/349
10/03/2021 ************************************************* ** *
Mesmo as formas não biológicas serão derivadas do desenho biológico. Nossa civilização permanecerá humana - na verdade, em
de muitas maneiras, será mais exemplar do que consideramos humano do que é hoje, embora nossa compreensão do
termo se moverá além de suas origens biológicas.
Muitos observadores expressaram alarme com o surgimento de formas de inteligência não biológica superiores à humana
inteligência (uma questão que exploraremos mais adiante no capítulo 9). O potencial de aumentar nossa própria inteligência por meio de
conexão íntima com outros substratos de pensamento não necessariamente alivia a preocupação, como algumas pessoas têm
expressou o desejo de permanecer "sem aprimoramento", ao mesmo tempo em que mantém seu lugar no topo da hierarquia intelectual
cadeia alimentar. Do ponto de vista da humanidade biológica, essas inteligências sobre-humanas parecerão ser nossos devotados
servos, satisfazendo nossas necessidades e desejos. Mas cumprir os desejos de um legado biológico reverenciado ocupará apenas um
porção trivial do poder intelectual que a Singularidade trará.
M OLLY C IRCA 2004: Como vou saber quando a Singularidade está sobre nós? Quer dizer, vou querer um tempo para me preparar.
R AY : Por que, o que você está planejando fazer?
M OLLY 2004: Vamos ver, para começar, eu vou querer afinar a minha r E resumir E . Quero causar uma boa impressão no
poderes que sejam.
G EORGE C IRCA 2048: Oh, eu posso cuidar disso para você.
M OLLY 2004: Isso realmente não é necessário. Sou perfeitamente capaz de fazer isso sozinho. Eu também posso querer apagar alguns
documentos - você sabe, onde eu sou um pouco ofensivo para algumas máquinas que conheço.
G EORGE 2048: Oh, as máquinas vão encontrá-los de qualquer maneira - mas não se preocupe, somos muito compreensivos.
Página 41
M OLLY 2004: Por alguma razão, isso não é totalmente reconfortante. Mas ainda gostaria de saber quais serão os arautos.
R AY : Ok, você saberá que a Singularidade está chegando quando tiver um milhão de e-mails em sua caixa de entrada.
M OLLY 2004: Hmm, nesse caso, parece que estamos quase lá. Mas, falando sério, estou tendo problemas para acompanhar
com todas essas coisas voando para mim como estão. Como vou acompanhar o ritmo da Singularidade?
G EORGE 2048: Você terá assistentes virtuais - na verdade, você precisará de apenas um.
M OLLY 2004: O que eu suponho que será você?
G EORGE 2048: Ao seu serviço.
M OLLY 2004: Isso é ótimo. Você vai cuidar de tudo, nem precisa me manter informado. Oh não
incomodar em dizer a Molly o que está acontecendo, ela não vai entender de qualquer maneira, vamos apenas mantê-la feliz e no escuro. "
G EORGE 2048: Oh, isso não vai funcionar, de jeito nenhum.
M OLLY 2004: A parte feliz, você quer dizer?
G EORGE 2048: Eu estava me referindo a mantê-lo no escuro. Você será capaz de entender o que estou fazendo se for isso que você
realmente quer.
M olly 2004: o que , tornando-se ...
R AY : Aprimorado?
M OLLY 2004: Sim, é o que eu estava tentando dizer.
G EORGE 2048: Bem, se nosso relacionamento deve ser tudo o que pode ser, então não é uma má ideia.
M OLLY 2004: E devo desejar permanecer como sou?
G EORGE 2048: Eu serei dedicado a você em qualquer evento. Mas posso ser mais do que apenas seu servo transcendente.
M OLLY 2004: Na verdade, você ser "apenas" meu servo transcendente não parece tão ruim.
C HARLES D ARWIN : Se me permite interromper, ocorreu-me que uma vez que a inteligência da máquina é maior do que a humana
inteligência, deve estar em posição de projetar sua própria próxima geração.
M OLLY 2004: Isso não parece tão incomum. As máquinas são usadas para projetar máquinas hoje.
C HARLES : Sim, mas em 2004 eles ainda são guiados por designers humanos. Uma vez que as máquinas estão operando em níveis humanos,
bem, então meio que fecha o ciclo.
N ED L UDD 37 : E os humanos estariam fora do circuito.
M OLLY 2004: Ainda seria um processo muito lento.
R AY : Oh, não mesmo. Se uma inteligência não biológica fosse construída de forma semelhante a um cérebro humano, mas usada até por volta de
Circuito de 2004,
M OLLY C IRCA 2104: Você quer dizer "ela".
R AY : Sim, claro ... ela ... seria capaz de pensar pelo menos um milhão de vezes mais rápido.
T IMOTHY L EARY : Então, o tempo subjetivo seria expandido.
R AY : Exatamente.
M OLLY 2004: Parece muito tempo subjetivo. O que suas máquinas vão fazer com tanto? G EORGE
2048: Oh, há muito o que fazer. Afinal, tenho acesso a todo conhecimento humano na Internet.
M OLLY 2004: Apenas o conhecimento humano? E quanto a todo o conhecimento da máquina?
G EORGE 2048: Gostamos de pensar nisso como uma civilização.
C HARLES : Então, parece que as máquinas serão capazes de melhorar seu próprio design.
M OLLY 2004: Oh, nós, humanos, estamos começando a fazer isso agora.
R AY : Mas estamos apenas mexendo em alguns detalhes. Inerentemente, a inteligência baseada no DNA é muito lenta e limitada.
C HARLES : Portanto, as máquinas projetarão sua própria próxima geração com bastante rapidez.
G EORGE 2048: De fato, em 2048, esse é certamente o caso.
[Link] 33/349
10/03/2021 ************************************************* ** *
C HARLES : Exatamente onde eu estava chegando, uma nova linha de evolução então.
N ED : Parece mais um fenômeno de fuga precário.
C HARLES : Basicamente, isso é evolução.
Página 42
N ED : Mas e quanto à interação das máquinas com seus progenitores? Quer dizer, eu não acho que gostaria de entrar em seu
maneira. Consegui me esconder das autoridades inglesas por alguns anos no início de 1800, mas suspeito que será
mais difícil com estes ...
G EORGE 2048: Pessoal.
M OLLY 2004: Escondendo-se daqueles pequenos robôs -
R AY : Nanobots, você quer dizer.
M OLLY 2004: Sim, se esconder dos nanobots será difícil, com certeza.
R AY : Eu esperaria que a inteligência que surge da Singularidade tivesse grande respeito por sua herança biológica.
G EORGE 2048: Com certeza, é mais do que respeito, é ... reverência.
M OLLY 2004: Isso é ótimo, George, eu serei seu animal de estimação venerado. Não é o que eu tinha em mente.
N ED : É assim que Ted Kaczynski diz: vamos nos tornar animais de estimação. Esse é o nosso destino, nos tornarmos animais de estimação satisfeitos
mas certamente não homens livres.
M OLLY 2004: E quanto a esta Epoch Six? Se eu permanecer biológico, estarei usando toda essa matéria e energia preciosas
da forma mais ineficiente. Você vai querer me transformar em, tipo, um bilhão de Mollys e Georges virtuais, cada um deles
pensando muito mais rápido do que agora. Parece que haverá muita pressão para passar para o outro lado.
R AY : Ainda assim, você representa apenas uma pequena fração da matéria e energia disponíveis. Manter você biológico não vai
alterar consideravelmente a ordem de magnitude da matéria e energia disponível para a Singularidade. Vai ficar bem
vale a pena manter o patrimônio biológico.
G EORGE 2048: Com certeza.
R AY : Assim como hoje, buscamos preservar a floresta tropical e a diversidade de espécies.
M OLLY 2004: Era exatamente disso que eu temia, quero dizer, estamos fazendo um trabalho maravilhoso com a floresta tropical. eu acho que nós
ainda tem um pouco disso. Vamos acabar como aquelas espécies em extinção.
N ED : Ou extintos.
M OLLY 2004: E não sou só eu. Que tal todas as coisas que eu uso? Eu passo por muitas coisas.
G EORGE 2048: Isso não é um problema, vamos apenas reciclar todas as suas coisas. Vamos criar os ambientes de que você precisa enquanto você
preciso deles.
M OLLY 2004: Ah, estarei em realidade virtual?
R AY : Não, na verdade, foglet a realidade.
M OLLY 2004: Estarei em um nevoeiro?
R AY : Não, não, foglets.
M OLLY 2004: Com licença?
R AY : Explicarei mais tarde no livro.
M OLLY 2004: Bem, me dê uma dica.
R AY : Foglets são nanobots - robôs do tamanho de células sanguíneas - que podem se conectar para replicar qualquer
estrutura. Além disso, eles podem direcionar as informações visuais e auditivas de forma a trazer a transformação
38
qualidades de realidade virtual em realidade real.
M OLLY 2004: Lamento ter perguntado. Mas, pensando bem, quero mais do que apenas minhas coisas. Eu quero todos os animais e
plantas também. Mesmo que eu não consiga ver e tocar todos eles, gosto de saber que estão lá.
G EORGE 2048: Mas nada será perdido.
M OLLY 2004: Sei que você vive dizendo isso. Mas quero dizer realmente lá - você sabe, como na realidade biológica.
R AY : Na verdade, toda a biosfera é menos de um milionésimo da matéria e energia do sistema solar.
C HARLES : Inclui muito carbono.
R AY : Ainda vale a pena guardar tudo para ter certeza de que não perdemos nada.
G EORGE 2048: Esse tem sido o consenso há pelo menos vários anos.
M OLLY 2004: Então, basicamente, terei tudo de que preciso na ponta dos dedos?
G EORGE 2048: Certamente.
M OLLY 2004: Parece o Rei Midas. Você sabe, tudo o que ele tocou se transformou em ouro.
Página 43
[Link] 34/349
10/03/2021 ************************************************* ** *
N ED : Sim, e como você deve se lembrar, ele morreu de fome como resultado.
M OLLY 2004: Bem, se eu acabar indo para o outro lado, com toda aquela vasta extensão de tempo subjetivo, eu acho
Vou morrer de tédio.
G EORGE 2048: Oh, isso nunca poderia acontecer. Eu vou ter certeza disso.
Página 44
CAPÍTULO DOIS
Quanto mais para trás você olha, mais para frente pode ver.
—W INSTON C HURCHILL
[Link] 35/349
10/03/2021 ************************************************* ** *
Dois bilhões de anos atrás, nossos ancestrais eram micróbios; meio bilhão de anos atrás, peixes; cem milhões de anos
atrás, algo como ratos; dez milhões de anos atrás, macacos arbóreos; e um milhão de anos atrás, os proto-humanos
intrigando a domesticação do fogo. Nossa linhagem evolutiva é marcada pelo domínio da mudança. Em nosso tempo, o
o ritmo está acelerando.
—C ARL S AGAN
Nossa única responsabilidade é produzir algo mais inteligente do que nós; quaisquer problemas além disso não são nossos para
resolver .... [T] aqui não há problemas difíceis, apenas problemas que são difíceis para um determinado nível de inteligência. Mova o
o menor pouco para cima [em nível de inteligência], e alguns problemas irão repentinamente passar de "impossível" para
"óbvio." Mova um grau substancial para cima e todos eles se tornarão óbvios.
"O futuro não pode ser previsto" é um refrão comum .... Mas ... quando [esta perspectiva] está errada, é profundamente
errado.
1
—J OHN S MART
A natureza da ordem. O capítulo anterior apresentou vários gráficos que demonstram a aceleração da mudança de paradigma.
(Mudanças de paradigma são mudanças importantes nos métodos e processos intelectuais para realizar tarefas; os exemplos incluem
linguagem escrita e o computador.) Os gráficos representavam o que quinze pensadores e obras de referência consideravam a chave
eventos na evolução biológica e tecnológica do Big Bang à Internet. Vemos alguma variação esperada,
mas uma tendência exponencial inconfundível: os principais eventos têm ocorrido em um ritmo cada vez mais acelerado.
Os critérios para o que constitui "eventos-chave" variam de uma lista de um pensador para outro. Mas vale a pena considerar
os princípios que usaram ao fazer suas seleções. Alguns observadores julgaram que os avanços verdadeiramente históricos no
a história da biologia e da tecnologia envolveu aumentos de complexidade. 2 Embora o aumento da complexidade pareça
Página 45
para acompanhar os avanços na evolução biológica e tecnológica, acredito que esta observação não é precisamente
correto. Mas vamos primeiro examinar o que significa complexidade.
Não é de surpreender que o conceito de complexidade seja complexo. Um conceito de complexidade é a quantidade mínima de
informações necessárias para representar um processo. Digamos que você tenha um projeto para um sistema (por exemplo, um computador
programa ou um arquivo de projeto assistido por computador para um computador), que pode ser descrito por um arquivo de dados contendo um
milhões de bits. Poderíamos dizer que seu design tem uma complexidade de um milhão de bits. Mas suponha que notemos que um milhão
na verdade, os bits consistem em um padrão de mil bits que é repetido mil vezes. Podemos notar o
repetições, remova os padrões repetidos e expresse todo o design em pouco mais de mil bits, reduzindo assim
O tamanho do arquivo por um fator de cerca de mil.
As técnicas de compactação de dados mais populares usam métodos semelhantes para encontrar redundância nas informações. 3
Mas depois de compactar um arquivo de dados dessa forma, você pode ter certeza absoluta de que não há outras regras ou
métodos que podem ser descobertos e que permitem expressar o arquivo em termos ainda mais compactos? Por exemplo,
suponha que meu arquivo fosse simplesmente "pi" (3,1415 ...) expresso com um milhão de bits de precisão. Maior compressão de dados
programas falhariam em reconhecer esta sequência e não comprimiriam o milhão de bits, uma vez que os bits em um binário
A expressão de pi é efetivamente aleatória e, portanto, não tem padrão repetido de acordo com todos os testes de aleatoriedade.
Mas se pudermos determinar que o arquivo (ou uma parte do arquivo) de fato representa pi, podemos facilmente expressá-lo (ou que
parte dele) muito compactamente como "pi para um milhão de bits de precisão." Uma vez que nunca podemos ter certeza de que não temos
esquecido alguma representação ainda mais compacta de uma sequência de informações, qualquer quantidade de conjuntos de compressão apenas
um limite superior para a complexidade das informações. Murray Gell-Mann fornece uma definição de complexidade ao longo
essas linhas. Ele define o "conteúdo de informação algorítmica" (Ale) de um conjunto de informações como "o comprimento do mais curto".
programa que irá causar um computador universal padrão para imprimir a seqüência de bits e parada, então. " 4
No entanto, o conceito de Gell-Mann não é totalmente adequado. Se tivermos um arquivo com informações aleatórias, não pode ser
comprimido. Essa observação é, de fato, um critério-chave para determinar se uma sequência de números é realmente aleatória.
No entanto, se qualquer sequência aleatória servir para um determinado projeto, então esta informação pode ser caracterizada por um
instrução simples, como "coloque uma sequência aleatória de números aqui." Portanto, a sequência aleatória, seja de dez bits ou
um bilhão de bits, não representa uma quantidade significativa de complexidade, porque é caracterizado por um simples
[Link] 36/349
10/03/2021 ************************************************* ** *
instrução. Esta é a diferença entre uma sequência aleatória e uma sequência imprevisível de informações que tem
propósito.
Para obter mais informações sobre a natureza da complexidade, considere a complexidade de uma rocha. Se nós fossemos
caracterizar todas as propriedades (localização precisa, momento angular, rotação, velocidade e assim por diante) de cada átomo no
rocha, teríamos uma vasta quantidade de informações. Uma rocha de um quilograma (2,2 libras) tem 10 25 átomos que, como eu irei
discutir no próximo capítulo, pode conter até 10 27 bits de informação. Isso é cem milhões de bilhões de vezes mais
informações do que o código genético de um ser humano (mesmo sem comprimir o código genético). 5 Mas para o mais comum
efeitos, a maior parte dessas informações é em grande parte aleatória e de pouca consequência. Portanto, podemos caracterizar a rocha para
a maioria dos propósitos com muito menos informações apenas especificando sua forma e o tipo de material de que é feito. Por isso,
É razoável considerar a complexidade de uma rocha comum muito menor do que a de um ser humano, embora a rocha
teoricamente, contém grandes quantidades de informações. 6
Um conceito de complexidade é a quantidade mínima de significativo, não aleatória, mas imprevisível informações
necessário para caracterizar um sistema ou processo.
No conceito de Gell-Mann, o AlC de uma string aleatória de um milhão de bits teria cerca de um milhão de bits de comprimento. Então estou adicionando
ao conceito AlC de Gell-Mann, a ideia de substituir cada string aleatória por uma instrução simples para "colocar bits aleatórios"
aqui.
No entanto, mesmo isso não é suficiente. Outro problema é levantado por cadeias de dados arbitrários, como nomes e telefone
números em uma lista telefônica ou medições periódicas dos níveis de radiação ou temperatura. Esses dados não são aleatórios e
os métodos de compressão de dados só conseguirão reduzi-la em um pequeno grau. No entanto, não representa complexidade como
esse termo é geralmente entendido. São apenas dados. Portanto, precisamos de outra instrução simples para "colocar uma sequência de dados arbitrária"
aqui.
Página 46
Para resumir minha medida proposta da complexidade de um conjunto de informações, primeiro consideramos seu AlC como Gell-
Mann o definiu. Em seguida, substituímos cada string aleatória por uma instrução simples para inserir uma string aleatória. Nós então
faça o mesmo para strings de dados arbitrárias. Agora temos uma medida de complexidade que corresponde razoavelmente à nossa intuição.
É uma observação justa que as mudanças de paradigma em um processo evolutivo como a biologia - e sua continuação
por meio da tecnologia - cada uma representa um aumento na complexidade, como defini acima. Por exemplo, a evolução
de DNA permitiu organismos mais complexos, cujos processos de informação biológica poderiam ser controlados pelo
Armazenamento flexível de dados da molécula de DNA. O Cambriano forneceu à explosão um conjunto estável de planos do corpo animal (em DNA),
para que o processo evolutivo pudesse se concentrar em um desenvolvimento cerebral mais complexo. Em tecnologia, o
invenção do computador forneceu um meio para a civilização humana armazenar e manipular conjuntos cada vez mais complexos de
em formação. A extensa interconectividade da Internet proporciona uma complexidade ainda maior.
"Aumentar a complexidade" por si só não é, no entanto, o objetivo final ou o produto final desses
processos. A evolução resulta em respostas melhores, não necessariamente mais complicadas. Às vezes, uma solução superior
é mais simples. Portanto, vamos considerar outro conceito: ordem. Ordem não é o mesmo que o oposto de desordem. Se desordem
representa uma sequência aleatória de eventos, o oposto de desordem deve ser "não aleatoriedade". Informação é um
sequência de dados que são significativos em um processo, como o código de DNA de um organismo ou os bits em um computador
programa. O "ruído", por outro lado, é uma sequência aleatória. O ruído é inerentemente imprevisível, mas não carrega
em formação. As informações, no entanto, também são imprevisíveis. Se pudermos prever dados futuros a partir de dados anteriores, esses dados futuros
deixa de ser informação. Assim, nem a informação nem o ruído podem ser comprimidos (e restaurados exatamente do mesmo
seqüência). Podemos considerar um padrão alternado previsivelmente (como 0101010 ...) ordenado, mas não carrega
informações além dos primeiros bits.
Assim, a ordem não constitui ordem, porque a ordem requer informação. O pedido é a informação que se encaixa em um
propósito. A medida de ordem é a medida de quão bem a informação se ajusta ao propósito. Na evolução de
formas de vida, o objetivo é sobreviver. Em um algoritmo evolutivo (um programa de computador que simula a evolução para
resolver um problema) aplicado, digamos, ao projeto de um motor a jato, o objetivo é otimizar o desempenho do motor, a eficiência e
possivelmente outros critérios. 7 Medir a ordem é mais difícil do que medir a complexidade. Existem medidas propostas de
complexidade, como discutido acima. Para obter pedidos, precisamos de uma medida de "sucesso" que seja adaptada a cada situação.
Quando criamos algoritmos evolutivos, o programador precisa fornecer uma medida de sucesso (chamada de "utilitário
"). No processo evolutivo de desenvolvimento de tecnologia, poderíamos atribuir uma medida de sucesso econômico.
Simplesmente ter mais informações não resulta necessariamente em um melhor ajuste. Às vezes, uma ordem mais profunda - um ajuste melhor
para um propósito - é alcançado por meio da simplificação, em vez de aumentos adicionais na complexidade. Por exemplo, um novo
A teoria que une idéias aparentemente díspares em uma teoria mais coerente reduz a complexidade, mas
no entanto, pode aumentar o "pedido para um propósito". (Neste caso, o objetivo é modelar com precisão os observados
fenômenos.) De fato, alcançar teorias mais simples é uma força motriz na ciência. (Como disse Einstein, "Faça tudo como
o mais simples possível, mas não mais simples. ")
Um exemplo importante desse conceito é aquele que representa uma etapa fundamental na evolução dos hominídeos: a mudança na
o ponto pivô do polegar, que permitia uma manipulação mais precisa do ambiente ". 8 Primatas como os chimpanzés
podem agarrar, mas não podem manipular objetos com um "punho de força" ou coordenação motora fina suficiente para escrever
ou dar forma a objetos. Uma mudança no ponto de articulação do polegar não aumentou significativamente a complexidade do animal, mas
no entanto, representou um aumento da ordem, possibilitando, entre outras coisas, o desenvolvimento de tecnologia.
A evolução mostrou, no entanto, que a tendência geral em direção a uma ordem maior normalmente resulta em maior complexidade. 9
[Link] 37/349
10/03/2021 ************************************************* ** *
Melhorar a solução para um problema - o que geralmente aumenta, mas às vezes diminui a complexidade -
a ordem aumenta. Agora ficamos com a questão de definir o problema. Na verdade, a chave para um algoritmo evolutivo
(e para a evolução biológica e tecnológica em geral) é exatamente isso: definir o problema (que inclui o
função útil). Na evolução biológica, o problema geral sempre foi sobreviver. Em nichos ecológicos específicos
Este desafio primordial se traduz em objetivos mais específicos, como a capacidade de certas espécies de sobreviver em
ambientes extremos ou para se camuflarem de predadores. Conforme a evolução biológica se moveu em direção aos humanóides
o objetivo em si evoluiu para a capacidade de superar os adversários e manipular o meio ambiente de acordo.
Página 47
Pode parecer que este aspecto da lei dos retornos acelerados contradiz a segunda lei da termodinâmica,
o que implica que a entropia (aleatoriedade em um sistema fechado) não pode diminuir e, portanto, geralmente aumenta. 10
No entanto, a lei dos retornos acelerados pertence à evolução, que não é um sistema fechado. Acontece em meio a grandes
caos e, de fato, depende da desordem em seu meio, da qual tira suas opções de diversidade. E destes
opções, um processo evolutivo continuamente poda suas escolhas para criar uma ordem cada vez maior. Até mesmo uma crise, como a
grandes asteróides periódicos que colidem com a Terra, embora aumentem o caos temporariamente, acabam aumentando—
aprofundamento - a ordem criada pela evolução biológica.
Para resumir, a evolução aumenta a ordem, o que o prefeito pode não aumentar a complexidade (mas geralmente aumenta). Um primário
A razão pela qual a evolução - de formas de vida ou de tecnologia - acelera é que ela se constrói em sua própria ordem crescente, com
meios cada vez mais sofisticados de registrar e manipular informações. Inovações criadas pela evolução encorajam
e permitir uma evolução mais rápida. No caso da evolução das formas de vida, o exemplo inicial mais notável é o DNA, que
Fornece uma transcrição gravada e protegida do design da vida a partir da qual podem ser lançados novos experimentos. Dentro do estojo
da evolução da tecnologia, métodos humanos cada vez mais aprimorados de registro de informações promoveram ainda mais
avanços em tecnologia. Os primeiros computadores foram projetados em papel e montados manualmente. Hoje, eles são projetados
em estações de trabalho de computador, com os próprios computadores trabalhando em muitos detalhes do design da próxima geração,
e são então produzidos em fábricas totalmente automatizadas com intervenção humana apenas limitada.
O processo evolutivo da tecnologia melhora as capacidades de forma exponencial. Inovadores buscam melhorar
capacidades por múltiplos. A inovação é multiplicativa, não aditiva. A tecnologia, como qualquer processo evolutivo, constrói
em si mesmo. Este aspecto continuará a acelerar quando a própria tecnologia assumir o controle total de sua própria progressão em
Época Cinco. 11
Podemos resumir os princípios da lei dos retornos acelerados da seguinte forma:
• A evolução
aplica feedback positivo: os métodos mais capazes resultantes de um estágio de progresso evolutivo
são usados para criar o próximo estágio. Conforme descrito no capítulo anterior, cada época de evolução progrediu
mais rapidamente com base nos produtos da etapa anterior. A evolução funciona indiretamente: evolução
Humanos criados, humanos criaram tecnologia, humanos agora estão trabalhando com tecnologia cada vez mais avançada para
Crie novas gerações de tecnologia. Na época da Singularidade, não haverá distinção entre
humanos e tecnologia. Não é porque os humanos terão se tornado o que consideramos máquinas hoje, mas
em vez disso, as máquinas terão progredido para ser como os humanos e além. A tecnologia será o metafórico
polegar opositor que permite nosso próximo passo na evolução. O progresso (aumentos adicionais na ordem) será então baseado
em processos de pensamento que ocorrem na velocidade da luz, em vez de em reações eletroquímicas muito lentas. Cada
estágio de evolução baseia-se nos frutos do último estágio, portanto, a taxa de progresso de um processo evolutivo
aumenta pelo menos exponencialmente com o tempo. Com o tempo, a "ordem" das informações incorporadas no
processo evolutivo (a medida de quão bem a informação se encaixa em um propósito, que na evolução é a sobrevivência)
aumenta.
• Umprocesso evolutivo não é um sistema fechado; A evolução baseia-se no caos do sistema maior no qual
ocorre por suas opções pela diversidade. Porque a evolução também se desenvolve em sua própria ordem crescente, em um
a ordem do processo evolutivo aumenta exponencialmente.
• Um correlato da observação acima é que os "retornos" de um processo evolutivo (como a velocidade,
eficiência, relação custo-benefício ou "poder" geral de um processo) também aumentam pelo menos exponencialmente com o tempo. Nós
Veja isso na Lei de Moore, em que cada nova geração de chip de computador (que agora aparece aproximadamente
A cada dois anos) fornece o dobro de componentes por custo unitário, cada um operando substancialmente mais rápido
(por causa das distâncias menores necessárias para os elétrons viajarem dentro e entre eles e outros fatores).
Como ilustro a seguir, esse crescimento exponencial no poder e no desempenho de preço de produtos baseados em informações
As tecnologias não se limitam a computadores, mas são verdadeiras essencialmente para todas as tecnologias de informação e incluem
conhecimento humano, medido de muitas maneiras diferentes. Também é importante observar que o termo "informações
Página 48
[Link] 38/349
10/03/2021 ************************************************* ** *
tecnologia "está englobando uma classe cada vez mais ampla de fenômenos e, em última análise, incluirá toda a gama
da atividade econômica e do esforço cultural.
• Emoutro ciclo de feedback positivo, quanto mais eficaz um determinado processo evolutivo se torna - por exemplo,
quanto maior a capacidade e o custo-benefício que a computação atinge - maior a quantidade de recursos que
são implantados para o progresso desse processo. Isso resulta em um segundo nível de crescimento exponencial;
isto é, a própria taxa de crescimento exponencial - o expoente - cresce exponencialmente. Por exemplo, como visto no
figura na pág. 67, "Lei de Moore: O Quinto Paradigma", demorou três anos para dobrar o preço-desempenho de
computação no início do século XX e dois anos no meio do século. É agora
dobrando cerca de uma vez por ano. Não apenas cada chip está dobrando em potência a cada ano pelo mesmo custo unitário, mas o
o número de chips fabricados também está crescendo exponencialmente; Assim, os orçamentos de pesquisa de computador cresceram
Dramaticamente ao longo das décadas.
•A evolução biológica é a sua cor : tal processo evolutivo o . Na verdade, é o processo evolutivo por excelência.
Porque ocorreu em um sistema completamente aberto (em oposição às restrições artificiais em um sistema evolutivo
algoritmo), muitos níveis do sistema evoluíram ao mesmo tempo. Não só as informações contidas em um
os genes das espécies progridem em direção a uma ordem maior, mas o sistema geral que implementa o próprio processo evolutivo
evolui dessa forma. Por exemplo, o número de cromossomos e a sequência de genes nos cromossomos
também evoluíram ao longo do tempo. Como outro exemplo, a evolução desenvolveu maneiras de proteger a informação genética
de defeitos excessivos (embora uma pequena quantidade de mutação seja permitida, uma vez que este é um mecanismo benéfico para
melhoria evolutiva contínua). Um dos principais meios de conseguir isso é a repetição da genética
informações sobre cromossomos emparelhados. Isso garante que, mesmo que um gene em um cromossomo seja danificado, seu
o gene correspondente é provavelmente correto e eficaz. Até mesmo o cromossomo Y masculino não pareado desenvolveu
meio de fazer backup de suas informações, repetindo-as no próprio cromossomo Y. 12 Apenas cerca de 2 por cento do
o genoma codifica para proteínas. 13 O resto da informação genética desenvolveu meios elaborados para controlar quando
e como os genes codificadores de proteínas se expressam (produzem proteínas) em um processo que estamos apenas começando a
Compreendo. Assim, o próprio processo de evolução, como a taxa permitida de mutação, evoluiu ao longo do tempo.
• EvoluçãoTecnológica É Processo Evolutivo das Avaliações em outra cor : tal. Na verdade, o surgimento da primeira tecnologia
A criação de espécies lidera o novo processo evolutivo da tecnologia, o que torna a evolução tecnológica uma
conseqüência de - e uma continuação de - evolução biológica. O Homo sapiens evoluiu ao longo de alguns
Cem mil anos e estágios iniciais da tecnologia criada por humanóides (como a roda, o fogo e a pedra
ferramentas) progrediu um pouco mais rápido, exigindo dezenas de milhares de anos para evoluir e ser amplamente implantado. Metade
milênio atrás, o produto de uma mudança de paradigma, como a imprensa, levou cerca de um século para ser amplamente
implantado. Hoje, os produtos de grandes mudanças de paradigma, como telefones celulares e a World Wide Web, são
amplamente adotado em apenas alguns anos.
• Um paradigma específico ( de um método ou abordagem para resolver um problema que ; por exemplo, encolhendo transistores em um
circuito integrado como forma de tornar os computadores mais potentes) gera um crescimento exponencial até que seu potencial seja
Exausta. Quando isso acontece, ocorre uma mudança de paradigma, o que permite que o crescimento exponencial continue.
A progressão desses três estágios se parece com a letra S, esticada para a direita. A ilustração da curva S mostra
como uma tendência exponencial contínua pode ser composta por uma cascata de curvas S. Cada curva S sucessiva é mais rápida (leva
menos tempo no tempo, ou eixo x ) e superior (ocupa mais espaço no desempenho, ou eixo y ).
Página 49
[Link] 39/349
10/03/2021 ************************************************* ** *
Página 50
[Link] 40/349
10/03/2021 ************************************************* ** *
As curvas S são típicas de crescimento biológico: replicação de um sistema de complexidade relativamente fixa (como um
organismo de uma espécie em particular), operando em um nicho competitivo e lutando por recursos locais finitos. Isso frequentemente
ocorre, por exemplo, quando uma espécie encontra um novo ambiente hospitaleiro. Seus números vão crescer exponencialmente
por um tempo antes de nivelar. O crescimento exponencial geral de um processo evolutivo (seja molecular,
biológico, cultural ou tecnológico) supera os limites de crescimento vistos em qualquer paradigma particular (um S- específico
curva) como resultado da potência e eficiência crescentes desenvolvidas em cada paradigma sucessivo. O exponencial
o crescimento de um processo evolutivo, portanto, abrange várias curvas S. O exemplo contemporâneo mais importante de
Este fenômeno são os cinco paradigmas de computação discutidos a seguir. Toda a progressão da evolução vista em
os gráficos sobre a aceleração da mudança de paradigma no capítulo anterior representam curvas S sucessivas. Cada evento importante,
como escrever ou imprimir, representa um novo paradigma e uma nova curva em S.
Página 51
A teoria evolutiva do equilíbrio pontuado (PE) descreve a evolução como progredindo através de períodos de
mudança rápida seguida por períodos de estase relativa. 14 De fato, os principais eventos nos gráficos de eventos de época correspondem
a períodos renovados de aumento exponencial na ordem (e, geralmente, de complexidade), seguido por um crescimento mais lento conforme cada
O paradigma se aproxima de sua assíntota (limite de capacidade). Portanto, PE fornece um modelo evolucionário melhor do que um modelo
que prevê apenas uma progressão suave por meio de mudanças de paradigma.
Mas os principais eventos no equilíbrio pontuado, embora dando origem a uma mudança mais rápida, não representam
saltos instantâneos. Por exemplo, o advento do DNA permitiu uma onda (mas não um salto imediato) de evolução
melhoria no design do organismo e aumento resultante na complexidade. Na história tecnológica recente, a invenção
do computador iniciou outro surto, ainda em curso, na complexidade da informação que o homem-máquina
a civilização é capaz de lidar. Esta última onda não alcançará uma assíntota até que saturemos a matéria e a energia
em nossa região do universo com computação, com base nos limites físicos que discutiremos na seção "... na
Destino Inteligente do Cosmos "no capítulo 6. 15
Durante esta terceira fase ou fase de maturação no ciclo de vida de um paradigma, a pressão começa a crescer para o próximo paradigma
mudança. No caso da tecnologia, os dólares de pesquisa são investidos para criar o próximo paradigma. Podemos ver isso no
extensa pesquisa sendo conduzida hoje em direção à computação molecular tridimensional, apesar do fato de que ainda
faltam pelo menos uma década para o paradigma de encolher transistores em um circuito integrado plano usando fotolitografia.
Geralmente, no momento em que um paradigma se aproxima de sua assíntota em preço-desempenho, o próximo paradigma técnico é
já trabalhando em aplicações de nicho. Por exemplo, na década de 1950, os engenheiros estavam encolhendo tubos de vácuo para fornecer
maior preço-desempenho para os computadores, até que o processo se tornasse inviável. Neste ponto, por volta de 1960,
Os transistores já haviam alcançado um forte nicho de mercado em rádios portáteis e foram posteriormente usados para substituir
tubos de vácuo em computadores.
Os recursos subjacentes ao crescimento exponencial de um processo evolutivo são relativamente ilimitados. Um tal
recurso é a ordem (sempre crescente) do próprio processo evolutivo (uma vez que, como indiquei, os produtos de um
processo evolutivo continua a crescer em ordem). Cada estágio de evolução fornece ferramentas mais poderosas para o próximo.
Por exemplo, na evolução biológica, o advento do DNA possibilitou uma evolução mais poderosa e mais rápida
"experimentos". Ou, para dar um exemplo mais recente, o advento de ferramentas de design auxiliado por computador permite
desenvolvimento da próxima geração de computadores.
O outro recurso necessário para o crescimento exponencial contínuo da ordem é o "caos" do ambiente no qual
o processo evolutivo ocorre e fornece opções para uma maior diversidade. O caos fornece a
variabilidade para permitir que um processo evolutivo descubra soluções mais poderosas e eficientes. Na evolução biológica,
uma fonte de diversidade é a mistura e combinação de combinações de genes por meio da reprodução sexual. Sexual
a própria reprodução foi uma inovação evolutiva que acelerou todo o processo de adaptação biológica e
Fornecido para maior diversidade de combinações genéticas do que a reprodução não sexual. Outras fontes de diversidade são
mutações e condições ambientais em constante mudança. Na evolução tecnológica, a engenhosidade humana combinada com
as condições variáveis de mercado mantêm o processo de inovação em andamento.
Desenhos Fractais. Uma questão chave a respeito do conteúdo de informação dos sistemas biológicos é como é possível para o
genoma, que contém comparativamente pouca informação, para produzir um sistema como o humano, que é muito mais
[Link] 41/349
10/03/2021 ************************************************* ** *
complexo do que a informação genética que o descreve. Uma maneira de entender isso é ver os projetos da biologia
como "fractais probabilísticos". Um fractal determinístico é um design em que um único elemento de design (chamado de "iniciador") é
substituído por vários elementos (juntos chamados de "gerador"). Em uma segunda iteração de expansão fractal, cada
elemento no próprio gerador torna-se um iniciador e é substituído pelos elementos do gerador (dimensionado para o
tamanho menor dos iniciadores de segunda geração). Este processo é repetido muitas vezes, com cada elemento recém-criado
de um gerador se tornando um iniciador e sendo substituído por um novo gerador em escala. Cada nova geração de fractal
a expansão adiciona complexidade aparente, mas não requer informações adicionais de design. Um fractal probabilístico adiciona o
elemento de indiscutível. Considerando que um fractal determinístico terá a mesma aparência toda vez que for renderizado, um probabilístico
fractal terá uma aparência diferente a cada vez, embora com características semelhantes. Em um fractal probabilístico, a probabilidade de
Página 52
Cada elemento gerador aplicado é menor que 1. Desta forma, os desenhos resultantes têm uma aparência mais orgânica.
Fractais probabilísticos são usados em programas gráficos para gerar imagens realistas de montanhas, nuvens,
praias, folhagens e outras cenas orgânicas. Um aspecto fundamental de um fractal probabilístico é que ele permite a geração de um
Muita complexidade aparente, incluindo detalhes extensos e variados, a partir de uma quantidade relativamente pequena de design
em formação. A biologia usa esse mesmo princípio. Os genes fornecem as informações de design, mas os detalhes em um organismo são
muito maior do que as informações do projeto genético.
Alguns observadores interpretam mal a quantidade de detalhes em sistemas biológicos, como o cérebro, argumentando, por exemplo,
Que a configuração exata de cada microestrutura (como cada túbulo) em cada neurônio seja precisamente projetada e
deve ser exatamente como o sistema deve funcionar. Para entender como um sistema biológico como o
cérebro funciona, no entanto, precisamos entender seus princípios de design, que são muito mais simples (ou seja, contêm muito menos
informações) do que as estruturas extremamente detalhadas que a informação genética gera por meio dessas iterativas,
processos tipo fractal. Existem apenas oitocentos milhões de bytes de informação em todo o genoma humano, e apenas
cerca de trinta a cem milhões de bytes após a aplicação da compactação de dados. Isso é cerca de cem milhões de vezes
menos informação do que é representado por todas as conexões interneuronais e padrões de concentração de neurotransmissores
em um cérebro humano totalmente formado.
Considere como os princípios da lei dos retornos acelerados se aplicam às épocas que discutimos no primeiro
capítulo. A combinação de aminoácidos em proteínas e de ácidos nucléicos em cadeias de RNA estabeleceu a base
paradigma da biologia. Strings de RNA (e mais tarde DNA) que se auto-replicaram (Época Dois) forneceram um método digital para
Registre os resultados dos experimentos evolutivos. Mais tarde, a evolução de uma espécie que combinava o pensamento racional
(Época Três) com um apêndice oponível (o polegar) causou uma mudança fundamental de paradigma da biologia para
tecnologia (Época Quatro). A próxima mudança de paradigma primário será do pensamento biológico para um híbrido
combinando o pensamento biológico e não biológico (Época Cinco), que incluirá processos "inspirados biologicamente"
resultante da engenharia reversa de cérebros biológicos.
Se examinarmos o tempo dessas épocas, veremos que elas fizeram parte de um processo de aceleração contínua.
A evolução das formas de vida exigiu bilhões de anos para seus primeiros passos (células primitivas, DNA) e, em seguida, o progresso
acelerado. Durante a explosão cambriana, as principais mudanças de paradigma levaram apenas dezenas de milhões de anos. Mais tarde,
humanóides se desenvolveram ao longo de um período de milhões de anos, e o Homo sapiens durante um período de apenas centenas de
milhares de anos. Com o advento de uma espécie criadora de tecnologia, o ritmo exponencial tornou-se muito rápido para
A evolução por meio da síntese de proteínas guiada por DNA e a evolução avançaram para a tecnologia criada pelo homem. Isso não
implica que a evolução biológica (genética) não está continuando, apenas que não está mais liderando o ritmo em termos de
melhorar a ordem (ou da eficácia e eficiência da computação). 16
Evolução previdente. Existem muitas ramificações da ordem e complexidade crescentes que devem ser reabilitadas
evolução biológica e sua continuação através da tecnologia. Considere os limites da observação. Biológico precoce
A vida pode observar eventos locais a vários milímetros de distância, usando gradientes químicos. Quando os animais avistados evoluíram,
eles foram capazes de observar eventos que estavam a quilômetros de distância. Com a invenção do telescópio, os humanos puderam ver outros
galáxias a milhões de anos-luz de distância. Por outro lado, usando microscópios, eles também podiam ver estruturas de tamanho celular.
Hoje, os humanos armados com tecnologia contemporânea podem ver até a borda do universo observável, uma distância de mais
de treze bilhões de anos-luz, e até partículas subatômicas em escala quântica.
Considere a duração da observação. Animais unicelulares podem lembrar eventos por segundos, com base em produtos químicos
reações. Animais com cérebro podem se lembrar de eventos por dias. Primatas com cultura podiam transmitir informações
por várias gerações. As primeiras civilizações humanas com histórias orais foram capazes de preservar histórias para centenas de
anos. Com o advento da linguagem escrita, a permanência se estendeu por milhares de anos.
Como um dos muitos exemplos da aceleração da taxa de mudança de paradigma da tecnologia, demorou cerca de meio século para
17
a invenção do telefone no final do século XIX para atingir níveis significativos de uso (veja a figura abaixo).
[Link] 42/349
10/03/2021 ************************************************* ** *
Página 53
Em comparação, a adoção do telefone celular no final do século XX levou apenas uma década. 18
Página 54
[Link] 43/349
10/03/2021 ************************************************* ** *
No geral, vemos uma aceleração suave nas taxas de adoção de tecnologias de comunicação no século passado. 19
Página 55
[Link] 44/349
10/03/2021 ************************************************* ** *
Conforme discutido no capítulo anterior, a taxa geral de adoção de novos paradigmas, que se compara à taxa de
progresso tecnológico, está dobrando a cada década. Ou seja, o tempo de adoção de novos paradigmas está diminuindo
metade de cada década. Nesse ritmo, o progresso tecnológico no século XXI será equivalente (na visão linear)
a duzentos séculos de progresso (ao ritmo de progresso em 2000). 20, 21
Página 56
Uma máquina é tão distinta, brilhante e expressivamente humana quanto uma sonota de violino ou um teorema
em Euclides.
G REGORY V LASTOS
É muito diferente do calígrafo monacal, trabalhando em sua cela em silêncio, ao rápido “clique, clique” de
a máquina de escrever moderna, que em um quarto de século revolucionou e reformou
o negócio.
—S CIENTIFIC A MERICAN , 1905
Nenhuma tecnologia de comunicação jamais desapareceu, mas se tornou cada vez menos
importante à medida que o horizonte tecnológico se alarga.
—Arthur C. Clarke
Sempre mantenho uma pilha de livros na minha mesa, que folheio quando fico sem ideias, me sinto inquieto ou
Caso contrário, precisa de um tiro de inspiração. Pegando um grande volume que adquiri recentemente, considero o
ofício de bookmaker: 470 páginas finamente impressas organizadas em assinaturas de 16 páginas, todas as quais são costuradas
junto com fio branco e colado em um cordão de lona cinza. As capas encadernadas em linho duro, estampadas com
letras douradas, são conectadas ao bloco de assinatura por folhas de extremidade delicadamente gofradas. Esta é uma tecnologia
que foi aperfeiçoado há muitas décadas. Os livros constituem um elemento integrante da nossa sociedade - ambos
refletindo e moldando sua cultura - que é difícil imaginar a vida sem eles. Mas o livro impresso, como qualquer
outra tecnologia, não viverá para sempre.
1. Durante o estágio precursor, os pré-requisitos de uma tecnologia existem, e os sonhadores podem contemplar
esses elementos se juntando. Não consideramos, no entanto, sonhar o mesmo que inventar,
mesmo que os sonhos sejam escritos. Leonardo da Vinci desenhou fotos convincentes de aviões e
automóveis, mas também não se considera que ele tenha inventado.
2. A próxima etapa, muito celebrada em nossa cultura, é a invenção, uma etapa muito breve, semelhante em alguns
diz respeito ao processo de nascimento após um longo período de trabalho de parto. Aqui, o inventor combina curiosidade,
habilidades científicas, determinação e geralmente de exibicionismo para combinar métodos de uma nova maneira e
Ele traz uma nova tecnologia para a vida.
3. O próximo estágio é o desenvolvimento, durante o qual a invenção é protegida e apoiada por amor
tutores (que podem incluir o inventor original). Muitas vezes, esta fase é mais crucial do que a invenção e
[Link] 45/349
10/03/2021 ************************************************* ** *
pode envolver criação adicional que pode ter um significado maior do que a própria invenção. Vários
os consertadores construíram carruagens sem cavalos afinadas à mão, mas foi a inovação de Henry Ford de
produção em massa que permitiu ao automóvel criar raízes e florescer.
4. O quarto estágio é a maturidade. Embora continue a evoluir, a tecnologia agora tem vida própria
e se tornou uma parte estabelecida da comunidade. Pode se tornar entrelaçado no tecido de
vida que parece a muitos observadores que vai durar para sempre. Isso cria um drama interessante quando
chega o estágio seguinte, que chamo de estágio dos falsos pretendentes.
5. Aqui, um novato ameaça eclipsar a tecnologia mais antiga. Seus entusiastas predizem prematuramente a vitória.
Embora forneça alguns benefícios distintos, a tecnologia mais recente é encontrada na reflexão como faltando alguns
elemento-chave de funcionalidade ou qualidade. Quando de fato falha em desalojar a ordem estabelecida, o
os conservadores da tecnologia consideram isso uma evidência de que a abordagem original realmente viverá para sempre.
Página 57
6. Geralmente, essa é uma vitória de curta duração para a tecnologia que está envelhecendo. Pouco depois, outro novo
a tecnologia normalmente consegue levar a tecnologia original ao estágio de obsolescência.
Nesta parte do ciclo de vida, a tecnologia vive seus anos seniores em declínio gradual, seu original
propósito e funcionalidade agora subsumidos por um concorrente mais ágil.
7. Nesta fase, que pode compreender 5 a 10 por cento do ciclo de vida de uma tecnologia, ela finalmente cede para
antiguidade (assim como o cavalo e a charrete), o cravo, o disco de vinil e a máquina de escrever manual).
Em meados do século XIX, houve vários precursores do fonógrafo, incluindo Léon Scott de
Fonautógrafo de Martinville, um dispositivo que gravava vibrações sonoras como um padrão impresso. Foi o Thomas
Edison, no entanto, que reuniu todos os elementos e inventou o primeiro dispositivo que poderia tanto
gravar e reproduzir som em 1877. Refinamentos adicionais foram necessários para que o fonógrafo se tornasse
comercialmente viável. Tornou-se uma tecnologia totalmente madura em 1949, quando a Columbia introduziu o 33-rpm
a gravação de longa duração (LP) e a RCA introduziram o disco de 45 rpm. O falso pretendente foi a fita cassete,
Introduzido na década de 1960 e popularizado durante a década de 1970. Os primeiros entusiastas previram que seu tamanho pequeno e
a capacidade de ser regravado tornaria o registro relativamente volumoso e riscável obsoleto.
Apesar desses benefícios, os cassetes não têm acesso aleatório e são propensos a suas próprias formas de distorção e
falta fidelidade. O CD (CD) deu o golpe mortal. Com o CD fornecendo acesso aleatório
e um nível de qualidade próximo aos limites do sistema auditivo humano, o fonógrafo entrou rapidamente no
estágio de obsolescência. Embora ainda produzida, a tecnologia que Edison deu à luz a quase 130 anos
atrás agora atingiu a antiguidade.
Considere o piano, uma área da tecnologia na qual estive pessoalmente envolvido na replicação. No
Bartolommeo Cristifori do início do século XVIII estava procurando uma maneira de fornecer uma resposta de toque ao então
cravo popular para que o volume das notas variasse com a intensidade do toque do
artista. Chamado gravicembalo cal piano e forte ("cravo com suave e alto"), sua invenção não foi um
sucesso imediato. Outros refinamentos, incluindo a ação vienense de Stein e a ação inglesa de Zumpe,
ajudou a estabelecer o "piano" como o instrumento de teclado preeminente. Alcançou a maturidade com o
desenvolvimento da estrutura completa de ferro fundido, patenteada em 1825 por Alpheus Babcock, e viu apenas
refinamentos sutis desde então. O falso pretendente era o piano elétrico do início dos anos 1980. É oferecido
funcionalidade substancialmente maior. Comparado ao som único (piano) do piano acústico, o som eletrônico
variante oferecia dezenas de sons de instrumentos, sequenciadores que permitiam ao usuário tocar uma orquestra inteira em
uma vez, acompanhamento automatizado, programa educacional para ensinar habilidades de teclado e muitos outros recursos.
A única característica que faltava era um som de piano de boa qualidade.
Esta falha crucial e a falha resultante da primeira geração de pianos eletrônicos levaram ao
conclusão generalizada de que o piano nunca seria substituído pela eletrônica. Mas a "vitória" do
o piano acústico não será permanente. Com sua gama muito maior de recursos e desempenho de preço, digital
pianos já superam as vendas de pianos acústicos residenciais. Muitos observadores acham que a qualidade do "piano"
o som em pianos digitais agora é igual ou superior ao do piano acústico vertical. Com a exceção de
Pianos de cauda de concerto e luxo (uma pequena parte do mercado), a venda de pianos acústicos está em declínio.
Então, onde está o livro no ciclo de vida da tecnologia? Entre seus precursores estavam tabuletas de argila da Mesopotâmia
e rolos de papiro egípcio. No segundo século AC, os Ptolomeus do Egito criaram uma grande biblioteca de
pergaminhos em Alexandria e proibiu a exportação de papiro para desencorajar a competição.
Quais foram talvez os primeiros livros foram criados por Eumenes II, governante da Grécia Antiga Perganum, usando
páginas de pergaminho feitas de peles de cabras e ovelhas, que foram costuradas em madeira
tampas. Essa técnica permitiu a Eumenes compilar uma biblioteca igual à de Alexandria. Em torno do mesmo
Com o tempo, os chineses também desenvolveram uma forma tosca de livro feito de tiras de bambu.
O desenvolvimento e o amadurecimento dos livros envolveram três grandes avanços. Imprimindo, primeiro
experimentado pelos chineses no século oito dC, usando blocos de madeira elevados, permitia que os livros fossem
Reproduzido em quantidades muito maiores, expandindo seu público para além do governo e líderes religiosos.
De importância ainda maior foi o advento do tipo móvel, que os chineses e coreanos experimentaram
[Link] 46/349
10/03/2021 ************************************************* ** *
Página 58
com pelo século XI, mas a complexidade dos caracteres asiáticos impediu essas primeiras tentativas de
sendo totalmente bem-sucedido. Johannes Gutenberg trabalhando no século XV, se beneficiou do parente
simplicidade do conjunto de caracteres romanos. Ele produziu sua Bíblia, a primeira obra em grande escala totalmente impressa com
tipo móvel, em 1455.
Embora tenha havido um fluxo contínuo de melhorias evolutivas na mecânica e
processo eletromecânico de impressão, a tecnologia da criação de livros não viu outro salto qualitativo
até a disponibilidade da composição por computador, que acabou com os tipos móveis há cerca de duas décadas.
A tipografia agora é considerada parte do processamento digital de imagens.
Com os livros uma tecnologia totalmente madura, os falsos pretendentes chegaram cerca de vinte anos atrás com o primeiro
onda de "livros eletrônicos". Como geralmente é o caso, esses falsos pretendentes ofereceram dramáticas qualidades qualitativas e
benefícios quantitativos. Livros eletrônicos baseados em CD-ROM ou memória flash podem fornecer o equivalente a
Milhares de livros com poderosos recursos de pesquisa e navegação de conhecimento baseados em computador. Com Web- ou
Enciclopédias baseadas em CD-ROM e DVD, posso realizar pesquisas rápidas de palavras usando regras lógicas extensas,
Algo simplesmente não é possível com a versão de "livro" de trinta e três volumes que possuo. Os livros eletrônicos podem
forneça imagens animadas e que respondam às nossas sugestões. As páginas não são necessariamente ordenadas
sequencialmente, mas pode ser explorado ao longo de mais conexões internas.
Tal como acontece com o disco fonográfico e o piano, esta primeira geração de falsos fingidores foi (e ainda é)
faltando uma qualidade essencial do original, que neste caso são as excelentes características visuais do papel
e tinta. O papel não pisca, ao passo que a tela típica do computador exibe sessenta ou mais campos por
segundo. Este é um problema devido a uma adaptação evolutiva do sistema visual dos primatas. Somos capazes
para ver apenas uma parte muito pequena do campo visual com alta resolução. Esta porção, fotografada pela fóvea em
a retina, está focada em uma área do tamanho de uma única palavra a vinte e duas polegadas de distância. Fora do
fóvea, temos muito pouca resolução, mas uma sensibilidade requintada às mudanças no brilho, uma habilidade que permitiu
nossos antepassados primatas para detectar rapidamente um predador que pode estar atacando. A oscilação constante de um vídeo
a tela do computador de matriz gráfica (VGA) é detectada por nossos olhos como movimento e causa movimento constante de
a fóvea. Isso diminui substancialmente as velocidades de leitura. que é uma razão pela qual ler em uma tela é
menos agradável do que ler um livro impresso. Este problema específico foi resolvido com monitores de tela plana,
que não piscam.
Outras questões cruciais incluem contraste - um livro de boa qualidade tem um contraste tinta-papel de cerca de 120: 1;
telas típicas são talvez metade disso - e resolução. Impressão e ilustrações em um livro representam um
resolução de cerca de 600 a 1000 pontos por polegada (dpi), enquanto as telas de computador têm cerca de um décimo disso.
O tamanho e o peso dos dispositivos computadorizados estão se aproximando dos livros, mas os dispositivos ainda estão
mais pesado do que um livro de bolso. Os livros de papel também não ficam sem bateria.
Mais importante, há a questão do software disponível, ou seja, o enorme instalado
base de livros impressos. Cinqüenta mil novos livros impressos são publicados a cada ano nos Estados Unidos, e
milhões de livros já estão em circulação. Existem grandes esforços em andamento para digitalizar e digitalizar impressos
materiais, mas levará muito tempo até que as bases de dados eletrônicas tenham uma riqueza comparável de material.
O maior obstáculo aqui é a compreensível hesitação dos editores em fazer as versões eletrônicas do
seus livros disponíveis, dado o efeito devastador que o compartilhamento ilegal de arquivos teve na gravação de música
indústria.
Soluções estão surgindo para cada uma dessas limitações. Novas tecnologias de exibição de baixo custo têm
contraste, resolução, falta de cintilação e visualização e comparável a documentos em papel de alta qualidade. Célula de combustível
energia para eletrônicos portáteis está sendo introduzida, o que manterá dispositivos eletrônicos alimentados por centenas
de horas entre as trocas dos cartuchos de combustível. Dispositivos eletrônicos portáteis já são comparáveis ao tamanho e
peso de um livro. O principal problema será encontrar meios seguros de gerar informações eletrônicas
acessível. Esta é uma preocupação fundamental para todos os níveis de nossa economia. Tudo - inclusive físico
produtos, uma vez que a fabricação baseada em nanotecnologia se torne uma realidade em cerca de vinte anos - está se tornando
em formação.
Página 59
Onde uma calculadora no ENIAC está equipada com 18.000 tubos de vácuo e pesa 30 toneladas, os computadores em
O futuro pode ter apenas 1.000 tubos de vácuo e talvez pesar 1,5 toneladas.
—P OPULAR M ECHANICS , 1949
[Link] 47/349
10/03/2021 ************************************************* ** *
A Ciência da Computação não trata mais de computadores do que a astronomia trata de telescópios.
EW D IJKSTRA
Antes de considerar mais as implicações da Singularidade, vamos examinar a ampla gama de tecnologias que são
sujeito à lei dos retornos acelerados. A tendência exponencial que ganhou o maior reconhecimento público tem
tornou-se conhecido como Lei de Moore. Em meados da década de 1970, Gordon Moore, um dos principais inventores de circuitos integrados e posteriormente
presidente da Intel, observou que poderíamos espremer duas vezes mais transistores em um circuito integrado a cada vinte
Quatro meses (em meados da década de 1960, ele estimava doze meses). Dado que os elétrons teriam, conseqüentemente,
menos distância a percorrer, os circuitos também funcionariam mais rápido, fornecendo um impulso adicional ao poder computacional geral.
O resultado é um crescimento exponencial no desempenho de preço da computação. Esta taxa de duplicação - cerca de doze meses -
é muito mais rápido do que a taxa de duplicação de mudança de paradigma de que falei anteriormente, que é cerca de dez anos. Tipicamente,
Descobrimos que o tempo de duplicação para diferentes medidas - preço-desempenho, largura de banda, capacidade - da capacidade de
tecnologia da informação é de cerca de um ano.
A principal força motriz da Lei de Moore é a redução dos tamanhos dos recursos de semicondutores, que encolhem pela metade
A cada 5,4 anos em cada dimensão. (Veja a figura abaixo.) Como os chips são funcionalmente bidimensionais, isso significa
dobrando o número de elementos por milímetro quadrado a cada 2,7 anos. 22
Os gráficos a seguir combinam dados históricos com o roteiro da indústria de semicondutores (International Technology
Roadmap for Semiconductors [ITRS] from Sematech), que projeta até 2018.
Página 60
[Link] 48/349
10/03/2021 ************************************************* ** *
O custo da DRAM (memória dinâmica de acesso aleatório) por milímetro quadrado também vem caindo. O
o tempo de duplicação para bits de DRAM por dólar foi de apenas 1,5 anos. 23
Página 61
Uma tendência semelhante pode ser observada com transistores. Você poderia comprar um transistor por um dólar em 1968; em 2002 um dólar
comprou cerca de dez milhões de transistores. Uma vez que DRAM é um campo especializado que viu sua própria inovação, o
reduzir o tempo pela metade para o preço médio do transistor é um pouco mais lento do que para DRAM, cerca de 1,6 anos (veja a figura abaixo). 24
[Link] 49/349
10/03/2021 ************************************************* ** *
Página 62
Esta aceleração incrivelmente suave no desempenho de preço dos semicondutores progrediu por uma série de estágios
de tecnologias de processo (definidas por tamanhos de recursos) em dimensões cada vez menores. O tamanho do recurso principal agora está diminuindo
abaixo de cem nanômetros, que é considerado o limiar da "nanotecnologia". 25
[Link] 50/349
10/03/2021 ************************************************* ** *
Página 63
Ao contrário da rosa de Gertrude Stein, não é o caso de um transistor ser um transistor. Como eles se tornaram
e menos caros, os transistores também se tornaram mais rápidos por um fator menor de cerca de mil ao longo do
nos últimos trinta anos (veja a figura abaixo) - de novo, porque os elétrons têm menos distâncias para viajar. 26
Página 64
[Link] 51/349
10/03/2021 ************************************************* ** *
Se combinarmos as tendências exponenciais em direção a transistores menos caros e tempos de ciclo mais rápidos, encontramos uma redução pela metade
tempo de apenas 1,1 anos no custo por ciclo do transistor (veja a figura abaixo.1 27 O custo por ciclo do transistor é mais
medida geral precisa de preço-desempenho porque leva em consideração a velocidade e a capacidade. Mas o custo por
o ciclo do transistor ainda não leva em consideração a inovação em níveis mais elevados de design (como o design do microprocessador)
que melhora a eficiência computacional.
Página 65
[Link] 52/349
10/03/2021 ************************************************* ** *
O número de transistores nos processadores Intel dobrou a cada dois anos (veja a figura abaixo). Muitos outros
fatores aumentaram o preço-desempenho, incluindo velocidade do clock, redução no custo por microprocessador e processador
inovações de design. 28
Página 66
O desempenho do processador no MIPS dobrou a cada 1,8 anos por processador (veja a figura abaixo). Novamente, observe que o
o custo por processador também diminuiu durante este período. 29
[Link] 53/349
10/03/2021 ************************************************* ** *
Página 67
Se eu examinar minhas próprias mais de quatro décadas de experiência neste setor, posso comparar o computador MIT que usei como um
estudante no final dos anos 1960 para um caderno recente. Em 1967, tive acesso a um IBM 7094 multimilionário com 32K (36-
bit) palavras de memória e um quarto da velocidade do processador MIPS. Em 2004, usei um computador pessoal de $ 2.000 com meio
bilhões de bytes de RAM e uma velocidade de processador de cerca de 2.000 MIPS. O computador do MIT foi cerca de mil vezes
mais caro, portanto, a proporção de custo por MIPS é de cerca de oito milhões para um.
Meu computador recente fornece 2.000 MIPS de processamento a um custo cerca de 2 24 menor do que o do computador
Usei em 1967. São 24 duplicações em 37 anos, ou cerca de 18,5 meses por duplicação. Se levarmos em consideração o aumento do valor
da RAM aproximadamente 2.000 vezes maior, grandes aumentos no armazenamento em disco e o conjunto de instruções mais poderoso de
[Link] 54/349
10/03/2021 ************************************************* ** *
Página 68
meu computador por volta de 2004, bem como grandes melhorias nas velocidades de comunicação, software mais poderoso e outros
fatores, o tempo de duplicação diminui ainda mais.
Apesar dessa deflação maciça no custo das tecnologias da informação, a demanda mais do que acompanhou. O número
de bits enviados dobrou a cada 1,1 ano, mais rápido do que o tempo de redução da metade no custo por bit, que é de 1,5 anos. 30 como um
resultar, a indústria de semicondutores registou um crescimento de 18 por cento anual na receita total de 1958 a 2002. 31 A inteira
a indústria de tecnologia da informação (TI) cresceu de 4,2% do produto interno bruto em 1977 para 8,2%
em 1998. 32 A TI tornou-se cada vez mais influente em todos os setores econômicos. A parcela de valor contribuída por
A tecnologia da informação para a maioria das categorias de produtos e serviços está aumentando. Mesmo manufaturados comuns
Produtos como mesas e cadeiras possuem um conteúdo informativo, representado por seus projetos computadorizados e pela
programação dos sistemas de aquisição de estoque e sistemas de fabricação automatizada usados em sua montagem.
Página 69
[Link] 55/349
10/03/2021 ************************************************* ** *
Alguns observadores afirmaram que a Lei de Moore nada mais é do que uma profecia que se auto-realiza: a indústria
os participantes antecipam onde precisam estar em um determinado momento no futuro e organizam suas pesquisas
desenvolvimento em conformidade. O próprio roteiro escrito da indústria é um bom exemplo disso. 34 No entanto, o
As tendências exponenciais em tecnologia da informação estão distantes daquelas cobertas pela Lei de Moore. Nós vemos
o mesmo tipo de tendências em essencialmente todas as tecnologias ou medidas que lidam com informações. Esta
Inclui muitas tecnologias nas quais uma percepção de aceleração do preço-desempenho não existe ou tem
não articulado anteriormente (veja abaixo). Mesmo dentro da própria computação, o crescimento da capacidade por unidade
o custo é muito mais do que a Lei de Moore sozinha poderia prever.
O Quinto Paradigma 35
A Lei de Moore não é, na verdade, o primeiro paradigma em sistemas computacionais. Você pode ver isso se traçar o preço
desempenho - medido por instruções por segundo por mil dólares constantes - de quarenta e nove famosos
sistemas computacionais e computadores que abrangem o século XX (veja a figura abaixo).
Página 70
[Link] 56/349
10/03/2021 ************************************************* ** *
Como a figura demonstra, havia na verdade quatro paradigmas diferentes - eletromecânico, relés, vácuo
tubos e transistores discretos - que mostraram um crescimento exponencial no preço-desempenho da computação muito antes
até mesmo os circuitos integrados foram inventados. E o paradigma de Moore não será o último. Quando a Lei de Moore chega ao fim de
sua curva S, agora esperada antes de 2020, o crescimento exponencial continuará com tridimensional molecular
computação, que constituirá o sexto paradigma.
Página 71
Observe que o uso da terceira dimensão em sistemas de computação não é uma escolha ou ou, mas um continuum
entre duas e três dimensões. Em termos de inteligência biológica, o córtex humano é, na verdade, bastante
plana, com apenas seis camadas finas que são elaboradamente dobradas, uma arquitetura que aumenta muito a superfície
área. A dobradura é uma forma de usar a terceira dimensão. Em sistemas "fractais" (sistemas em que um desenho
regra de substituição ou dobradura é aplicada iterativamente), as estruturas que são elaboradamente dobradas são consideradas como
constituem uma dimensão parcial. Dessa perspectiva, a superfície convoluta do córtex humano representa
uma série de dimensões entre dois e três. Outras estruturas cerebrais, como o cerebelo, são
tridimensional, mas compreende uma estrutura repetitiva que é essencialmente bidimensional. É provável que nosso
futuros sistemas computacionais também combinarão sistemas que são sistemas bidimensionais altamente dobrados com
Estruturas totalmente tridimensionais.
Observe que a figura mostra uma curva exponencial em uma escala logarítmica, indicando dois níveis de exponencial
crescimento. 36 Em outras palavras, há um crescimento exponencial suave, mas inconfundível, na taxa de crescimento exponencial. (UMA
a linha reta em uma escala logarítmica mostra crescimento exponencial simples; uma linha curva para cima mostra mais que
crescimento exponencial simples.) Como você pode ver, levou três anos para dobrar o preço-desempenho da computação no
início do século XX e dois anos no meio, e leva cerca de um ano atualmente. 37
Hans Moravec fornece o seguinte gráfico semelhante (veja a figura abaixo), que usa um gráfico diferente, mas sobreposto
conjunto de computadores históricos e traça linhas de tendência (inclinações) em diferentes pontos no tempo. Tal como acontece com a figura acima, a inclinação
Aumenta com o tempo, refletindo o segundo nível de crescimento exponencial. 38
[Link] 57/349
10/03/2021 ************************************************* ** *
Página 72
Se projetarmos essas tendências de desempenho computacional ao longo deste próximo século, podemos ver na figura abaixo
que os supercomputadores corresponderão à capacidade do cérebro humano até o final desta década e a computação pessoal alcançará
por volta de 2020 - ou possivelmente antes, dependendo de quão conservadora seja uma estimativa da capacidade do cérebro humano que usarmos.
(Discutiremos as estimativas da velocidade computacional do cérebro humano no próximo capítulo. 39
[Link] 58/349
10/03/2021 ************************************************* ** *
Página 73
O crescimento exponencial da computação é um exemplo quantitativo maravilhoso dos retornos crescentes exponencialmente
de um processo evolutivo. Podemos expressar o crescimento exponencial da computação em termos de seu ritmo acelerado:
levou noventa anos para atingir o primeiro MIPS por mil dólares; Agora nós adicionamos um MIPS por mil dólares a cada
cinco horas. 40
Página 74
[Link] 59/349
10/03/2021 ************************************************* ** *
O supercomputador Blue Gene / P da IBM está planejado para ter um milhão de gigaflops (bilhões de operações de ponto flutuante
o segundo por), ou 10 15 cálculos por quando o segundo em 2007. Ele lança 41 que são um o décimo Dos 10 16 cálculos por
segundo necessário para emular o cérebro humano (consulte o próximo capítulo). E se extrapolarmos esta curva exponencial, obtemos
10 16 cálculos por segundo no início da próxima década.
Como discutido acima, a Lei de Moore refere-se estritamente ao número de transistores em um circuito integrado de
tamanho e às vezes foi expresso ainda mais estreitamente em termos de tamanho do recurso do transistor. Mas o mais
medida apropriada para rastrear preço-desempenho é a velocidade computacional por custo unitário, um índice que leva em consideração
muitos níveis de "inteligência" (inovação, ou seja, evolução tecnológica). Além de toda a invenção
envolvidos em circuitos integrados, existem várias camadas de melhoria no design do computador (por exemplo, pipelining,
Processamento paralelo, instrução antecipada, instrução e cache de memória e muitos outros).
O cérebro humano usa um processo computacional analógico controlado digitalmente eletroquímico muito ineficiente. O
grosso de seus cálculos são realizados nas conexões interneuronais a uma velocidade de apenas cerca de duzentos
cálculos por segundo (em cada conexão), que é pelo menos um milhão de vezes mais lento do que o eletrônico contemporâneo
circuitos. Mas o cérebro adquire seus poderes prodigiosos de sua organização extremamente paralela em três dimensões. Lá
Existem muitas tecnologias nas asas que construirão circuitos em três dimensões , que discuto no próximo capítulo.
Podemos perguntar se há limites inerentes à capacidade da matéria e da energia de suportar
processos. Esta é uma questão importante, mas como veremos no próximo capítulo, não abordaremos esses limites até o final
Este século. É importante distinguir entre a curva S que é característica de qualquer tecnologia específica
paradigma e o crescimento exponencial contínuo que é característico do processo evolutivo contínuo dentro de um
ampla área de tecnologia, como computação. Paradigmas específicos, como a Lei de Moore, em última análise, atingem níveis em
Página 75
cujo crescimento exponencial não é mais viável. Mas o crescimento da computação substitui qualquer um de seus
paradigmas e é, para os presentes fins, uma exponencial contínua.
De acordo com a lei dos retornos acelerados, a mudança de paradigma (também chamada de inovação) transforma a curva S de qualquer
paradigma específico em um exponencial contínuo. Um novo paradigma, como circuitos tridimensionais, assume quando
o velho paradigma se aproxima de seu limite natural, o que já aconteceu pelo menos quatro vezes na história da
computação. Em espécies não humanas como os macacos, o domínio de uma habilidade de fabricação ou uso de ferramentas por cada animal é
caracterizado por uma curva de aprendizado em forma de S que termina abruptamente; a tecnologia criada pelo homem, em contraste, seguiu
um padrão exponencial de crescimento e aceleração desde o seu início.
[Link] 60/349
10/03/2021 ************************************************* ** *
—A LFRED N ORTH W HITEHEAD , 1911 42
—D WIGHT D. E ISENHOWER
A lei dos retornos acelerados se aplica a toda a tecnologia, na verdade, a qualquer processo evolutivo. Pode ser mapeado com
precisão notável em tecnologias baseadas na informação porque temos índices bem definidos (por exemplo,
cálculos por segundo por dólar ou cálculos por segundo por grama) para medi-los. Existem muitos
exemplos do crescimento exponencial A implicado pela lei dos retornos acelerados, em áreas tão variadas como a eletrônica de todos
Tipos, sequenciamento de DNA, comunicações, varredura do cérebro, engenharia reversa do cérebro, o tamanho e o escopo do ser humano
conhecimento e o tamanho cada vez menor da tecnologia. A última tendência está diretamente relacionada ao surgimento de
nanotecnologia.
A futura era GNR (Genética, Nanotecnologia, Robótica) (ver capítulo 5) não virá da
explosão exponencial de computação sozinha, mas sim da interação e miríade de sinergias que resultarão de
Múltiplos avanços tecnológicos interligados. Como cada ponto nas curvas de crescimento exponencial subjacentes a esta panóplia
de tecnologias representa um intenso drama humano de inovação e competição, devemos considerar notável que
Esses processos caóticos resultam em tendências exponenciais suaves e previsíveis. Isso não é uma coincidência, mas é um
característica inerente dos processos evolutivos.
Quando a varredura do genoma humano começou em 1990, os críticos apontaram que, dada a velocidade com que o
o genoma poderia então ser escaneado, levaria milhares de anos para terminar o projeto. No entanto, o projeto de quinze anos foi
concluído um pouco antes do previsto, com um primeiro rascunho em 2003. 43 O custo do sequenciamento de DNA caiu de cerca de
dez dólares por par básico em 1990 para alguns centavos em 2004 e continua caindo rapidamente (veja a figura
abaixo de). 44
Página 76
Tem havido um crescimento exponencial suave na quantidade de dados de sequência de DNA que foram coletados (consulte o
[Link] 61/349
10/03/2021 ************************************************* ** *
figura abaixo). 45 Um exemplo recente dramático dessa capacidade de melhoria foi o sequenciamento do vírus SARS, que
Demorou apenas trinta e um dias desde a identificação do vírus, em comparação com mais de quinze anos para o vírus HIV. 46
Página 77
Claro, esperamos ver um crescimento exponencial em memórias eletrônicas como a RAM. Mas observe como a tendência
este gráfico logarítmico (abaixo) prossegue suavemente através de diferentes paradigmas de tecnologia: tubo de vácuo para discreto
transistor para circuito integrado. 47
[Link] 62/349
10/03/2021 ************************************************* ** *
Página 78
No entanto, o crescimento no preço-desempenho da memória magnética (unidade de disco) não é resultado da Lei de Moore. Esta
tendência exponencial reflete a compressão de dados em um substrato magnético, em vez de transistores em um
circuito, um desafio técnico completamente diferente perseguido por diferentes engenheiros e diferentes empresas. 48
Página 79
[Link] 63/349
10/03/2021 ************************************************* ** *
Crescimento exponencial em tecnologia de comunicação (medidas para comunicar informações; veja a figura
abaixo) tem sido por muitos anos ainda mais explosivo do que em medidas de processamento ou memória de computação e não é
menos significativo em suas implicações. Novamente, essa progressão envolve muito mais do que apenas encolher transistores em um
circuito integrado, mas inclui avanços acelerados em fibra óptica, comutação óptica, tecnologias eletromagnéticas,
e outros fatores. 49
No momento, estamos nos afastando do emaranhado de fios em nossas cidades e em nossa vida diária por meio do wireless
comunicação, cuja potência dobra a cada dez a onze meses (veja a figura abaixo).
Página 80
[Link] 64/349
10/03/2021 ************************************************* ** *
As figuras abaixo mostram o crescimento geral da Internet com base no número de hosts (computadores servidores da Web).
Esses dois gráficos representam os mesmos dados, mas um está em um eixo logarítmico e o outro é linear. Como foi discutido,
enquanto a tecnologia progride exponencialmente, nós a experimentamos no domínio linear. Da perspectiva da maioria
observadores, nada estava acontecendo nesta área até meados da década de 1990, quando, aparentemente do nada, o mundo
Web e e-mail explodiram à vista. Mas o surgimento da Internet em um fenômeno mundial foi prontamente
previsível examinando dados de tendência exponencial no início dos anos 1980 da ARPANET, predecessora da Internet. 50
Página 81
[Link] 65/349
10/03/2021 ************************************************* ** *
Página 82
Além dos servidores, o tráfego real de dados na Internet também dobrou a cada ano. 52
[Link] 66/349
10/03/2021 ************************************************* ** *
Página 83
Para acomodar esse crescimento exponencial, a velocidade de transmissão de dados do backbone da Internet (conforme representado por
Os canais de comunicação de backbone mais rápidos anunciados, realmente usados para a Internet, cresceram exponencialmente.
Observe que na figura "Largura de banda do backbone da Internet" abaixo, podemos realmente ver a progressão das curvas S: o
aceleração promovida por um novo paradigma, seguido por um nivelamento conforme o paradigma perde força, seguido por
aceleração renovada por meio de mudança de paradigma. 53
Página 84
[Link] 67/349
10/03/2021 ************************************************* ** *
Outra tendência que terá implicações profundas para o século XXI é o movimento generalizado em direção
miniaturização. Os principais tamanhos de recursos de uma ampla gama de tecnologias, tanto eletrônicas quanto mecânicas, são
diminuindo, e em uma taxa exponencial. No momento, estamos reduzindo a tecnologia por um fator de cerca de quatro por
por década de dimensão. Esta miniaturização é uma força motriz por trás da Lei de Moore, mas também se reflete no tamanho do
todos os sistemas eletrônicos - por exemplo, armazenamento magnético. Também vemos essa diminuição no tamanho dos dispositivos mecânicos, como
a figura sobre o tamanho dos dispositivos mecânicos ilustra. 54
Página 85
[Link] 68/349
10/03/2021 ************************************************* ** *
À medida que o tamanho das características salientes de uma ampla gama de tecnologias se aproxima inexoravelmente da faixa de multi-nanômetros
(menos de cem nanômetros - bilionésimos de metro), tem sido acompanhado por um interesse crescente em
nanotecnologia. As citações da ciência da nanotecnologia têm aumentado significativamente na última década, conforme observado em
a figura abaixo. 55
Página 86
[Link] 69/349
10/03/2021 ************************************************* ** *
Página 87
Como exploraremos no capítulo 5, a revolução genética (ou biotecnologia) está trazendo a revolução da informação,
com sua capacidade e preço-desempenho exponencialmente crescentes, para o campo da biologia. Da mesma forma, o
a revolução da nanotecnologia trará o domínio cada vez maior da informação para materiais e mecânicos
sistemas. A revolução da robótica (ou "IA forte") envolve a engenharia reversa do cérebro humano, o que significa
chegar a compreender a inteligência humana em termos de informação e, em seguida, combinar os insights resultantes com
Plataformas computacionais cada vez mais poderosas. Assim, todas as três transformações sobrepostas - genética,
nanotecnologia e robótica - que vai dominar a primeira metade deste século representam diferentes facetas da
revolução da informação.
[Link] 70/349
10/03/2021 ************************************************* ** *
Página 88
Como descrevi neste capítulo, todos os aspectos da informação e da tecnologia da informação estão crescendo em um
ritmo exponencial. Inerente em nossa expectativa de uma Singularidade ocorrendo na história humana é o penetrante
importância da informação para o futuro da experiência humana. Vemos informações em todos os níveis de existência.
Todas as formas de conhecimento humano e expressão artística - ideias e designs científicos e de engenharia,
literatura, música, fotos, filmes - podem ser expressos como informações digitais.
Nossos cérebros também operam digitalmente, por meio de disparos discretos de nossos neurônios. A fiação do nosso interneuronal
conexões podem ser descritas digitalmente, e o design de nossos cérebros é especificado por um surpreendentemente pequeno
código genético digital. 57
Na verdade, toda a biologia opera por meio de sequências lineares de pares de bases de DNA de 2 bits, que por sua vez controlam
o sequenciamento de apenas vinte aminoácidos em proteínas. As moléculas formam arranjos discretos de átomos. O
átomo de carbono, com suas quatro posições estabelecendo conexões moleculares, é particularmente adepto da criação de um
Variedade de formas tridimensionais, o que explica seu papel central na biologia e na tecnologia.
Dentro do átomo, os elétrons assumem níveis de energia discretos. Outras partículas subatômicas, como prótons,
compreendem números discretos de quarks de valência.
Embora as fórmulas da mecânica quântica sejam expressas em termos de campos contínuos e
Níveis discretos, sabemos que níveis contínuos podem ser expressos com qualquer grau de precisão desejado
usando dados binários. 58 Na verdade, a mecânica quântica, como a palavra "quântica" indica, é baseada em valores discretos.
O físico e matemático Stephen Wolfram fornece extensas evidências para mostrar como
a complexidade pode se originar de um universo que é, em sua essência, um sistema algorítmico determinístico (um sistema
com base em regras fixas com resultados predeterminados). Em seu livro A New Kind of Science , Wolfram oferece uma
Análise abrangente de como os processos subjacentes a uma construção matemática chamada de "um celular
autômato "tem o potencial de descrever todos os níveis de nosso mundo natural. 59 (Um autômato celular é um
mecanismo computacional simples que, por exemplo, muda a cor de cada célula em uma grade com base no
cor das células adjacentes adjacentes de acordo com uma regra de transformação.)
Para ele, é viável expressar todos os processos de informação em termos de operações no celular
autômatos, portanto, os insights do Wolfram estão relacionados a várias questões-chave relacionadas à informação e sua difusão.
Wolfram postula que o próprio universo é um computador autômato celular gigante. Em sua hipótese, há
uma base digital para fenômenos aparentemente analógicos (como movimento e tempo) e para fórmulas em física, e
podemos modelar nossa compreensão da física como a simples transformação de um autômato celular.
Outros propuseram essa possibilidade. Richard Feynman questionou sobre isso ao considerar o
relação da informação com a matéria e a energia. Norbert Wiener anunciou uma mudança fundamental de foco
da energia à informação em seu livro de 1948 Cybernetic e sugeriu que a transformação de
informação, não energia, era o bloco de construção fundamental do universo. 60 Talvez o primeiro a postular
que o universo está sendo computado em um computador digital foi Konrad Zuse em 1967. 61 Zuse é mais conhecido
como o inventor do primeiro computador programável funcional, que ele desenvolveu de 1935 a 1941.
Um entusiasta proponente de uma teoria da física baseada em informações foi Edward Fredkin, que no
início dos anos 1980 propôs uma "nova teoria da física" fundada na ideia de que o universo é, em última instância
composto de software. Não devemos pensar na realidade como consistindo de partículas e forças, de acordo com
Fredkin, mas sim como bits de dados modificados de acordo com as regras de computação.
Fredkin foi citado por Robert Wright na década de 1980 como dizendo:
Existem três grandes questões filosóficas. O que é a vida? O que é consciência e pensamento
e memória e tudo isso? E como funciona o universo? ... [O] "ponto de vista da informação"
abrange todos os três ... O que estou dizendo é que no nível mais básico de complexidade um
o processo de informação executa o que consideramos física. No nível muito mais alto de complexidade, vida,
O DNA - você sabe, a função bioquímica - é controlado por um processo de informação digital. Então em
Outro nível, nossos processos de pensamento são basicamente o processamento de informações .... Acho que o apoio
[Link] 71/349
10/03/2021 ************************************************* ** *
Página 89
Provas de minhas crenças em dez mil lugares diferentes ... E para mim é totalmente opressor.
É como se houvesse um animal que quero encontrar. Encontrei suas pegadas. Encontrei seus excrementos. encontrei
a comida meio mastigada. Encontro pedaços de sua pele e assim por diante. Em todos os casos, cabe um tipo de animal, e
não é como nenhum animal que alguém já viu. As pessoas dizem, onde está esse animal? Eu digo, bem, ele era
aqui, ele é mais ou menos deste grande, este aquele e o outro. E eu sei mil coisas sobre ele. Eu não
tenho em mãos, mas eu sei que ele está lá .... O que eu vejo é tão atraente que não pode ser uma criatura do meu
imaginação. 62
Fredkin ... está falando sobre uma característica interessante de alguns programas de computador, incluindo muitos
autômatos celulares: não há atalho para descobrir a que eles vão levar. Este, de fato, é um básico
diferença entre a abordagem "analítica" associada à matemática tradicional, incluindo
equações diferenciais e a abordagem "computacional" associada a algoritmos. Você pode
prever um estado futuro de um sistema suscetível à abordagem analítica sem descobrir o que
afirma que ocupará entre agora e então, mas no caso de muitos autômatos celulares, você deve ir
através de todos os estados intermediários para descobrir como será o fim: não há como saber o
futuro, exceto para vê-lo se desdobrar .... Fredkin explica: "Não há como saber a resposta para alguns
questionar mais rápido do que o que está acontecendo. "... Fredkin acredita que o universo é literalmente um
computador e que está sendo usado por alguém, ou algo, para resolver um problema. Soa como um
piada de boas / más notícias: a boa notícia é que nossas vidas têm um propósito; a notícia básica é que o
O objetivo é ajudar algum hacker remoto a estimar pi em nove milhões de casas decimais. 63
Fredkin passou a mostrar que embora a energia seja necessária para o armazenamento e recuperação de informações, podemos
Reduza arbitrariamente a energia necessária para realizar qualquer exemplo específico de processamento de informações. e essa
Esta operação não tem limite inferior. 64 Isso implica que a informação, ao invés de matéria e energia, pode ser
considerada como a realidade mais fundamental. 65 Voltarei ao insight de Fredkin sobre o limite inferior extremo
de energia necessária para computação e comunicação no capítulo 3, uma vez que pertence ao poder final de
inteligência no universo.
Wolfram constrói sua teoria principalmente em uma visão única e unificada. A descoberta que tanto entusiasmou
Wolfram é uma regra simples que ele chama de regras de autômato celular 110 e seu comportamento. (Existem alguns outros
regras interessantes de autômatos, mas a regra 110 esclarece bem o ponto.) A maioria das análises de Wolfram lida com
os mais simples autômatos celulares possíveis, especificamente aqueles que envolvem apenas uma linha unidimensional de células,
duas cores possíveis (preto e branco) e regras baseadas apenas nas duas células imediatamente adjacentes. Para cada
transformação, a cor de uma célula depende apenas de sua própria cor anterior e da cor da célula à esquerda e
a célula à direita. Portanto, existem oito situações de entrada possíveis (ou seja, três combinações de duas cores).
Cada regra mapeia todas as combinações dessas oito situações de entrada para uma saída (preto ou branco). Então há
2 8 (256) regras possíveis para um autômato de células adjacentes de uma dimensão e duas cores. Metade dos 256 possíveis
as regras são mapeadas na outra metade por causa da simetria esquerda-direita. Podemos mapear metade deles novamente por causa de
equivalência preto-branco, então ficamos com 64 tipos de regra. Wolfram ilustra a ação desses autômatos
com padrões bidimensionais em que cada linha (ao longo do eixo y ) representa uma geração subsequente de
Aplicando a regra a cada célula dessa linha.
A maioria das regras são degeneradas, o que significa que criam padrões repetitivos sem interesse, como células de
uma única cor ou um padrão xadrez. Wolfram chama essas regras de autômatos de classe 1. Algumas regras produzem
Estrias espaçadas arbitrariamente que permanecem estáveis, e Wolfram as classifica como pertencentes à classe 2. Classe 3
As regras são um pouco mais interessantes, em que recursos reconhecíveis (como triângulos) aparecem no resultado
padrão em uma ordem essencialmente aleatória.
No entanto, foram os autômatos de classe 4 que deram origem à experiência "aha" que atendeu ao
dedicando uma década ao tema. Os autômatos da classe 4, dos quais a regra 110 é o exemplo quintessencial,
produzem padrões surpreendentemente complexos que não se repetem. Vemos neles artefatos, como linhas
em vários ângulos, agregações de triângulos e outras configurações interessantes. O padrão resultante,
No entanto, não é regular nem completamente aleatório; Parece ter alguma ordem, mas nunca é previsível.
Página 90
[Link] 72/349
10/03/2021 ************************************************* ** *
Por que isso é importante ou interessante? Lembre-se de que começamos da forma mais simples possível
ponto: uma única célula preta. O processo envolve a aplicação repetitiva de uma regra muito simples. 66 de tal
processo repetitivo e determinístico, seria de se esperar um comportamento repetitivo e previsível. São dois
resultados surpreendentes aqui. Uma é que os resultados produzem aleatoriedade aparente. No entanto, os resultados são mais
interessante do que pura aleatoriedade, que por si só se tornaria chata muito rapidamente. São discerníveis e
Características interessantes nos desenhos produzidos, para que o padrão tenha alguma ordem e aparente inteligência.
Wolfram inclui vários exemplos dessas imagens, muitas das quais são adoráveis de se olhar.
Wolfram afirma repetidamente o seguinte: "Sempre que um fenômeno é encontrado, parece
complexo, é quase certo que o fenômeno deve ser o resultado de alguma
mecanismo que é em si mesmo complexo. Mas minha descoberta de que programas simples podem produzir grande complexidade
Deixa claro que isso não é de fato correto. " 67
Acho o comportamento da regra 110 bastante encantador. Além disso, a ideia de que um fator completamente determinístico
processo pode produzir resultados que são completamente imprevisíveis é de grande importância, pois fornece um
Explicação de como o mundo pode ser inerentemente imprevisível, embora ainda baseado em regras totalmente determinísticas. 68
No entanto, não estou totalmente surpreso com a ideia de que mecanismos simples podem produzir resultados mais
complicado do que suas condições iniciais. Vimos esse fenômeno em fractais, caos e complexidade
teoria e sistemas auto-organizáveis (como redes neurais e modelos de Markov), que começam com
redes, mas se organizam para produzir um comportamento aparentemente inteligente.
Em um nível diferente, vemos isso no próprio cérebro humano, que começa com apenas cerca de trinta a cem
milhões de bytes de especificação no genoma compactado, mas acaba com uma complexidade de cerca de um bilhão
vezes maior. 69
Também não é surpreendente que um processo determinístico possa produzir resultados aparentemente aleatórios. Nós temos
tem geradores de números aleatórios (por exemplo, a função "randomize" no programa Matemática de Wolfram)
que usam processos determinísticos para produzir sequências que passam em testes estatísticos de aleatoriedade. Esses
os programas remontam aos primeiros dias do software de computador, como a primeira versão do Fortran. Contudo,
Wolfram fornece uma base teórica completa para essa observação.
Wolfram continua descrevendo como mecanismos computacionais simples podem existir na natureza em diferentes
Página 91
níveis, e ele mostra que esses mecanismos simples e determinísticos podem produzir toda a complexidade que
nós vemos e experimentamos. Ele fornece uma miríade de exemplos, como os designs agradáveis de pigmentação em
animais, a forma e as marcações nas conchas e padrões de turbulência (como o comportamento da fumaça no
ar). Ele afirma que a computação é essencialmente simples e onipresente. A aplicação repetitiva de
transformações computacionais simples, de acordo com Wolfram, é a verdadeira fonte de complexidade do mundo.
Minha opinião é que esta é a única parte correta. Eu concordo com Wolfram que a computação está ao nosso redor,
e que alguns dos padrões que vemos são criados pelo equivalente a autômatos celulares. Mas uma questão fundamental para
A pergunta é: quão complexos são os resultados dos autômatos de classe?
O Wolfram efetivamente contorna a questão dos graus de complexidade. Eu concordo que um padrão degenerado como
como um tabuleiro de xadrez não tem complexidade. Wolfram também reconhece que a mera aleatoriedade não representa
complexidade também, porque a aleatoriedade pura se torna previsível em sua pura falta de previsibilidade. É verdade
que as características interessantes dos autômatos de classe 4 não são repetidos nem puramente aleatórios, então eu concordaria
que eles são mais complexos do que os resultados produzidos por outras classes de autômatos.
No entanto , há um limite distinto para a complexidade produzida por autômatos de classe 4. O
muitas imagens de tais autômatos no livro de Wolfram têm uma aparência semelhante a eles, e embora sejam
não se repetem, são interessantes (e inteligentes) apenas até certo ponto. Além disso, eles não continuam a
evoluem para algo complexo, nem desenvolvem novos tipos de recursos. Pode-se executar estes por trilhões ou
até mesmo trilhões de trilhões de iterações e a imagem permaneceriam no mesmo nível limitado de complexidade. Elas
não evoluem para, digamos, insetos ou humanos ou prelúdios de Chopin ou qualquer outra coisa que possamos considerar de um
Ordem de complexidade maior do que as listras e triângulos misturados exibidos nessas imagens.
A complexidade é um continuum. Aqui, defino "pedido" como "informação que se encaixa em um propósito". 70 A completamente
o processo previsível tem ordem zero. Um alto nível de informação por si só não implica necessariamente um alto nível
de ordem também. Uma lista telefônica contém muitas informações, mas o nível de ordem dessas informações é bastante baixo. UMA
sequência aleatória é essencialmente informação pura (uma vez que não é previsível), mas não tem ordem. A saída de
Os autômatos de classe 4 possuem um certo nível de ordem e sobrevive como outros padrões persistentes. Mas
[Link] 73/349
10/03/2021 ************************************************* ** *
Os padrões representados por um ser humano têm um nível muito mais alto de ordem e de complexidade.
Os seres humanos cumprem um propósito altamente exigente: eles sobrevivem em um nicho ecológico desafiador. Humano
os seres representam uma hierarquia extremamente complexa e elaborada de outros padrões. Wolfram considera qualquer
Padrões que combinam alguns recursos reconhecíveis e elementos imprevisíveis para serem efetivamente equivalentes a
em outro. Mas ele não mostra como um autômato de classe 4 pode aumentar sua complexidade, muito menos
Torne-se um padrão tão complexo quanto um ser humano.
Há um elo perdido aqui, que explicaria como alguém sai do interessante, mas no final das contas
padrões de rotina de um autômato celular para a complexidade de estruturas persistentes que demonstram
níveis de inteligência. Por exemplo, esses padrões de classe 4 não são capazes de resolver problemas interessantes,
e nenhuma iteração os move mais perto de fazer isso. Wolfram iria contra-atacar do que a regra 110
autômato poderia ser usado como um "computador universal". 71 No entanto, por si só, um computador universal não é
capaz de resolver programas inteligentes sem o que eu chamaria de "software". É a complexidade do
software executado em um computador universal que é precisamente o problema.
Pode-se apontar que os padrões da classe 4 resultam dos autômatos mais simples possíveis (unidimensional,
regras de duas cores e dois vizinhos). O que acontece se aumentarmos a dimensionalidade - por exemplo, ir para vários
cores ou mesmo generalizar esses autômatos celulares discretos para função contínua? Wolfram aborda todos os
isso completamente. Os resultados produzidos a partir de autômatos mais complexos são essencialmente os mesmos que aqueles
dos mais simples. Obtemos o mesmo tipo de interesse por meio de padrões bastante limitados. Volfrâmio
É intrigante que não precisamos usar regras mais complexas para obter complexidade no resultado final.
Mas eu diria ao contrário que não podemos aumentar a complexidade dos resultados finais
por meio de regras mais complexas ou de iteração posterior. Portanto, os autômatos celulares nos levam apenas até certo ponto.
Página 92
resultados mais inteligentes. Wolfram diz que os autômatos da classe 4 e um algoritmo evolutivo são
"equivalente computacionalmente." Mas isso é verdade apenas no que considero o nível de "hardware". No software
nível, o outro dos padrões produzidos são claramente diferentes e de uma ordem diferente de complexidade e
utilidade.
Um algoritmo evolutivo pode começar com soluções potenciais geradas aleatoriamente para um problema, que são
codificado em um código genético digital. Em seguida, temos as soluções competindo umas com as outras em um simulado
batalha evolutiva. As melhores soluções sobrevivem e procriam em uma reprodução sexual simulada em que
soluções descendentes são criadas, extraindo seu código genético (soluções codificadas) de dois pais. Nós podemos
também introduzem uma taxa de mutação genética. Vários parâmetros de alto nível deste processo, como a taxa de
mutação, a taxa de descendência e assim por diante, são apropriadamente chamados de "parâmetros de Deus" e é o trabalho do
engenheiro projetando o algoritmo evolutivo para defini-los para valores razoavelmente ideais. O processo é executado
Por muitos milhares de gerações de evolução simulada, e no final do processo, é provável que se encontre
soluções que são de uma ordem distintamente superior do que as iniciais.
Os resultados desses algoritmos evolutivos (às vezes chamados de genéticos) podem ser elegantes, bonitos e
soluções inteligentes para problemas complexos. Eles têm sido usados, por exemplo, para criar projetos artísticos e
projetos para formas de vida artificiais, bem como para executar uma ampla gama de atribuições práticas, como
projetar motores a jato. Os algoritmos genéticos são uma abordagem para a inteligência artificial "estreita" - isto é,
criar sistemas que podem executar funções específicas que costumavam exigir a aplicação de humanos
inteligência.
Mas ainda falta algo. Embora os algoritmos genéticos sejam uma ferramenta útil na resolução de problemas específicos,
eles nunca alcançaram nada parecido com "IA forte", isto é, aptidão semelhante ao amplo, profundo,
e características sutis da inteligência humana, particularmente seu poder de reconhecimento de padrões e comando
língua. O problema é que não estamos executando os algoritmos evolutivos por tempo suficiente? Afinal, os humanos
evoluiu por meio de um processo que levou bilhões de anos. Talvez não possamos recriar esse processo com apenas um
poucos dias ou semanas de simulação de computador. Isso não vai funcionar, no entanto, porque a genética convencional
algoritmos alcançam uma assíntota em seu nível de desempenho, portanto, executá-los por um longo período de tempo
não vai ajudar.
Um terceiro nível (além da capacidade dos processos celulares de produzir aleatoriedade aparente e genética
algoritmos para produzir soluções inteligentes focadas) é realizar a evolução em vários níveis. Convencional
Algoritmos genéticos permitem a evolução apenas dentro dos limites de um problema estreito e um único meio de
evolução. O próprio código genético precisa evoluir; as regras de evolução precisam evoluir. A natureza não ficou
com um único cromossomo, por exemplo. Tem havido muitos níveis de indireção incorporados no
processo evolutivo natural. E exigimos um ambiente complexo no qual a evolução ocorra.
Para construir uma IA forte, teremos a oportunidade de curto-circuitar este processo, no entanto, ao contrário
a engenharia do cérebro humano, um projeto bem encaminhado, beneficiando-se assim do processo evolutivo que
já aconteceu. Estaremos aplicando algoritmos evolutivos dentro dessas soluções, assim como o
o cérebro humano sim. Por exemplo, a fiação fetal é inicialmente aleatória dentro das restrições especificadas no genoma
em pelo menos algumas regiões. Uma pesquisa recente mostra que as áreas relacionadas com a aprendizagem sofrem mais
mudam, ao passo que as estruturas relacionadas com o processamento sensorial experimentam menos mudanças após o nascimento. 72
Wolfram afirma que certos (na verdade, a maioria) dos processos computacionais não são previsíveis.
[Link] 74/349
10/03/2021 ************************************************* ** *
Em outras palavras, não podemos prever o estado futuro sem executar todo o processo, concordo com ele que nós
só podemos saber a resposta com antecedência se, de alguma forma, pudermos simular um processo em uma velocidade mais rápida. Dado que
o universo funciona na velocidade mais rápida que pode, geralmente não há como causar um curto-circuito no processo.
No entanto, temos os benefícios dos bilhões de anos de evolução que já ocorreram, que são
responsável pelo grande aumento da ordem de complexidade no mundo natural. Agora podemos nos beneficiar disso
usando ferramentas evoluídas para fazer engenharia reversa dos produtos da evolução biológica (o mais importante, o humano
cérebro).
Sim, é verdade que alguns fenômenos da natureza que podem parecer complexos em algum nível são apenas os
resultados de mecanismos computacionais subjacentes simples que são essencialmente autômatos celulares em funcionamento. O
padrão interessante de triângulos em uma "tenda oliva" (citado extensivamente por Wolfram) ou o intrincado e variado
os padrões de um floco de neve são um bom exemplo. Não acho que seja uma observação nova, pois sempre
Página 93
considerou o design de flocos de neve como derivado de um processo de construção semelhante a uma computação molecular simples.
No entanto, Wolfram nos fornece uma base teórica convincente para expressar esses processos
e seus padrões resultantes. Mas a biologia é mais do que padrões de classe 4.
Outro fator importante de Wolfram reside em seu tratamento completo da computação como um método simples e
fenômeno onipresente. Claro, sabemos há mais de um século que a computação é inerentemente
Simples: podemos construir qualquer nível possível de complexidade a partir do mais simples possível
manipulações de informações.
Por exemplo, o computador mecânico do final do século XIX de Charles Babbage (que nunca funcionou)
Forneceu apenas um punhado de códigos de operação, mas forneceu (dentro de sua capacidade de memória e velocidade) o mesmo
tipos de transformações que os computadores modernos fazem. A complexidade da invenção de Babbage resultou apenas
dos detalhes de seu design, que de fato se provou muito difícil para Babbage implementar usando o
tecnologia disponível para ele.
A máquina de Turing, a concepção teórica de Alan Turing de um computador universal em 1950, fornece apenas
Sete comandos básicos, mas podem ser organizados para realizar qualquer computação possível. 73 A existência de
uma "máquina de Turing universal", que pode simular qualquer máquina de Turing possível descrita em sua fita
memória, é mais uma demonstração da universalidade e simplicidade da informação. 74 na era de
Máquinas Inteligentes , mostrei como qualquer computador pode ser construído a partir de "um número adequado de [a] muito
dispositivo simples, "a saber, o portão" nem. 75 Esta não é exatamente a mesma demonstração de um Turing universal
máquina, mas demonstra que qualquer computação pode ser realizada por uma cascata deste muito simples
dispositivo (que é mais simples do que a regra 110), dado o software correto (que incluiria a conexão
descrição das portas nor). 76
Embora precisemos de conceitos adicionais para descrever um processo evolutivo que cria
soluções para problemas, a demonstração de Wolfram da simplicidade e onipresença da computação é um importante
contribuição em nossa compreensão do significado fundamental da informação no mundo.
M OLLY 2004: Você tem máquinas evoluindo em um ritmo acelerado. E quanto aos humanos?
R AY : Você quer dizer humanos biológicos?
M OLLY 2004: Sim.
C HARLES D ARWIN : A evolução biológica está provavelmente continuando, não é?
R AY : Bem, a biologia neste nível está evoluindo tão lentamente que dificilmente conta. Eu mencionei que a evolução funciona através de
indireção. Acontece que os paradigmas mais antigos, como a evolução biológica, continuam, mas em sua velha velocidade,
então eles são eclipsados pelos novos paradigmas. A evolução biológica para animais tão complexos quanto os humanos leva dezenas de
Milhares de anos para tornar as diferenças perceptíveis, embora ainda pequenas. Toda a história da cultura humana e
evolução tecnológica ocorreu nessa escala de tempo. No entanto, agora estamos prontos para ascender além do frágil
e lentas criações de evolução biológica em apenas algumas décadas. O progresso atual está em uma escala que é um
mil a um milhão de vezes mais rápido do que a evolução biológica.
N ED L UDD : E se nem todos quiserem concordar com isso?
R AY : Eu não esperava que eles fizessem. Sempre há adotantes iniciais e tardios. Sempre há uma vanguarda e um
vanguarda para a tecnologia ou para qualquer mudança evolutiva. Ainda temos pessoas empurrando arados, mas isso não
retardou a adoção de telefones celulares, telecomunicações, Internet, biotecnologia e assim por diante. Contudo,
a borda atrasada acaba alcançando. Temos sociedades na Ásia que saltaram do intestino agrário para
77
economias da informação, sem passar pela industrialização.
N ED : Pode ser, mas a exclusão digital está piorando.
R AY : Eu sei que as pessoas vivem dizendo isso, mas como isso pode ser verdade? O número de humanos está crescendo apenas
muito devagar. O número de humanos conectados digitalmente, não importa como você o mede, está crescendo rapidamente. UMA
fração cada vez maior da população mundial está recebendo comunicadores eletrônicos e ultrapassando nossos
sistema primitivo de fiação telefônica conectando-se à Internet sem fio, de modo que a divisão digital é rapidamente
diminuindo, não crescendo.
[Link] 75/349
10/03/2021 ************************************************* ** *
Página 94
M OLLY 2004: Ainda sinto que o problema ter / não ter não recebe atenção suficiente. Podemos fazer mais.
R AY : Certamente, mas as forças impessoais e dominantes da lei dos retornos acelerados estão, no entanto, se movendo no
direção correta. Considere que a tecnologia em uma área particular começa inacessível e não funciona muito bem.
Então, torna-se apenas caro e funciona um pouco melhor. A próxima etapa é que o produto se torna barato
e funciona muito bem. Finalmente, a tecnologia se torna virtualmente gratuita e funciona muito bem. Não faz muito tempo que
Quando você viu alguém usando um telefone portátil em um filme, ele ou ela era um membro da elite do poder, porque
apenas os ricos podiam comprar telefones portáteis. Ou, como um exemplo mais pungente, considere os medicamentos para a AIDS. Elas
Começou mal e custou mais de dez mil dólares por ano por paciente. Agora eles
78
funcionam muito melhor e estão reduzidos a várias centenas de dólares por ano nos países pobres. Infelizmente com
Com relação à AIDS, ainda não estamos no estágio de funcionamento ótimo e quase sem custo. O mundo está começando a
tomar medidas um pouco mais eficazes contra a AIDS, mas tem sido trágico que nada mais tenha sido feito. Milhões de
Como resultado, vidas, a maioria na África, foram perdidas. Mas o efeito da lei dos retornos acelerados é, no entanto,
movendo-se na direção certa. E o intervalo de tempo entre a borda anterior e a posterior está se contraindo. Direita
Agora, estimo esse atraso em cerca de uma década. Em uma década, cairá para cerca de meia década.
Todo progresso é baseado em um desejo inato universal por parte de cada organismo de viver além de seu
renda.
Se eu estivesse partindo hoje para fazer aquela viagem para a Costa Oeste para começar um novo negócio, eu
estar olhando para biotecnologia e nanotecnologia.
Você obterá oitenta trilhões de dólares apenas lendo esta seção e entendendo o que ela diz. Para detalhes completos, veja
abaixo de. (É verdade que um autor fará qualquer coisa para manter sua atenção, mas estou falando sério sobre essa afirmação.
Até que eu retorne a uma explicação adicional, no entanto, leia a primeira frase deste parágrafo com atenção.)
A lei dos retornos acelerados é fundamentalmente uma teoria econômica. Teoria econômica e política contemporânea
são baseados em modelos desatualizados que enfatizam os custos de energia, preços de commodities e investimento de capital na planta e
equipamentos como principais fatores de condução, embora negligenciando amplamente a capacidade computacional, memória, largura de banda, o tamanho do
tecnologia, propriedade intelectual, conhecimento e outros constituintes vitais (e cada vez mais crescentes)
que estão impulsionando a economia.
É o imperativo econômico de um mercado competitivo que é a principal força que impulsiona a tecnologia
e alimentando a lei dos retornos acelerados. Por sua vez, a lei dos retornos acelerados está transformando a economia
relacionamentos. O imperativo econômico é o equivalente à sobrevivência na evolução biológica. Estamos avançando em direção a mais
máquinas inteligentes e menores, como resultado de uma miríade de pequenos avanços, cada um com sua economia particular
Página 95
justificação. As máquinas que podem realizar suas missões com mais precisão têm valor agregado, o que explica por que
estão sendo construídos. Existem dezenas de milhares de projetos que estão promovendo os vários aspectos da lei de aceleração
retorna em diversas formas incrementais.
Independentemente dos ciclos de negócios de curto prazo, suporte para "alta tecnologia" na comunidade empresarial e, em particular, para
desenvolvimento de software, cresceu enormemente. Quando comecei meu reconhecimento óptico de caracteres (OCR) e fala -
empresa de síntese (Kurzweil Computer Products) em 1974, os negócios de alta tecnologia nos Estados Unidos totalizaram menos
mais de trinta milhões de dólares (em 1974 dólares). Mesmo durante a recente recessão de alta tecnologia (2000--2003), o número era
[Link] 76/349
10/03/2021 ************************************************* ** *
quase cem vezes maior. 79 Teríamos que revogar o capitalismo e todo vestígio de competição econômica para
pare esta progressão.
É importante destacar que estamos avançando em direção à "nova" economia baseada no conhecimento de forma exponencial, mas
no entanto, gradualmente. 80 Quando a chamada nova economia não transformou os modelos de negócios da noite para o dia, muitos
Os observadores foram rápidos em rejeitar a ideia como inerentemente falha. Levará mais algumas décadas até que o conhecimento
domina a economia, mas representará uma transformação profunda quando acontecer.
Vimos o mesmo fenômeno nos ciclos de expansão e queda da Internet e das telecomunicações. Os booms foram
alimentado pelo conhecimento válido de que a Internet e a comunicação eletrônica distribuída representavam
transformações. Mas quando essas transformações não ocorreram em períodos de tempo irrealistas, mais de dois
trilhões de dólares de capitalização de mercado desapareceram. Como indico abaixo, a adoção real dessas tecnologias
progrediu sem problemas, sem indicação de expansão ou contração.
Praticamente todos os modelos econômicos ensinados nas aulas de economia e usados pelo Federal Reserve Board para definir
política monetária, por agências governamentais para definir a política econômica, e por previsores econômicos de todos os tipos são
fundamentalmente falho em sua visão das tendências de longo prazo. Isso porque eles são baseados na visão "linear intuitiva" de
história (a suposição de que o ritmo de mudança continuará na taxa atual), em vez de com base histórica
visão exponencial. A razão pela qual esses modelos lineares parecem funcionar por um tempo é a mesma razão que a maioria das pessoas adota
A visão linear intuitiva em primeiro lugar: tendências exponenciais parecem ser lineares quando vistas e experimentadas por um
breve período de tempo, especialmente nos estágios iniciais de uma tendência exponencial, quando não muito está acontecendo. Mas uma vez que
O "joelho da curva" é alcançado e o crescimento exponencial explode, os modelos lineares se rompem.
Enquanto este livro está sendo escrito, o país está debatendo a mudança do programa da Previdência Social com base em projeções
que vai até 2042, aproximadamente o período de tempo que estimei para a Singularidade (consulte o próximo capítulo). Esta
A revisão da política econômica é incomum nos prazos muito longos envolvidos. As previsões são baseadas em modelos lineares
de aumentos de longevidade e crescimento econômico que são altamente irrealistas. Por um lado, o aumento da longevidade
Superou amplamente as expectativas modestas do governo. Por outro lado, as pessoas não vão querer se aposentar aos sessenta e cinco
quando têm corpos e cérebros de pessoas de trinta anos. Mais importante, o crescimento econômico da "GNR"
tecnologias (ver capítulo 5) irão superar em muito as estimativas de 1,7 por cento ao ano sendo usadas (que são subestimadas por
metade da nossa experiência nos últimos quinze anos).
As tendências exponenciais subjacentes ao crescimento da produtividade estão apenas começando esta fase explosiva. O bruto real dos EUA
O produto nacional cresceu exponencialmente, impulsionado pela melhoria da produtividade com a tecnologia, como pode ser visto na figura
abaixo de. 81
Página 96
[Link] 77/349
10/03/2021 ************************************************* ** *
Alguns críticos atribuem o crescimento da população ao crescimento exponencial do PIB, mas vemos a mesma tendência em uma
capita (veja a figura abaixo). 82
Página 97
Observe que o crescimento exponencial subjacente na economia é uma força muito mais poderosa do que as recessões periódicas.
As recessões mais importantes, incluindo depressões, representam apenas desvios temporários da curva subjacente.
Mesmo a Grande Depressão representa apenas uma pequena mancha no contexto do padrão de crescimento subjacente. Em cada
Nesse caso, a economia termina exatamente onde estaria se a recessão / depressão nunca tivesse ocorrido.
A economia mundial continua acelerando. O Banco Mundial divulgou um relatório no final de 2004 indicando que o
o ano anterior foi mais próspero do que qualquer ano da história, com crescimento econômico mundial de 4%. 83
Além disso, as taxas mais altas ocorreram nos países em desenvolvimento: mais de 6%. Mesmo omitindo China e Índia, o
[Link] 78/349
10/03/2021 ************************************************* ** *
a taxa era superior a 5 por cento. Na região do Leste Asiático e Pacífico, o número de pessoas que vivem em extrema pobreza foi
De 470 milhões em 1990 para 270 milhões em 2001, e é projetado pelo Banco Mundial em menos de 20 milhões em 2015.
Outras regiões estão apresentando um crescimento econômico semelhante, embora um pouco menos dramático.
A produtividade (produção econômica por trabalhador) também tem crescido exponencialmente. Essas estatísticas são, de fato, muito
subestimados porque não refletem totalmente melhorias significativas na qualidade e nas características dos produtos e
Serviços. Não é o caso que "um carro é um carro"; Houve grandes atualizações em segurança, confiabilidade e recursos.
Certamente, mil dólares de computação hoje é muito mais poderoso do que mil dólares de computação
Dez anos atrás (por um fator de mais de mil). Existem muitos outros exemplos. Drogas farmacêuticas são
eficazes porque agora estão sendo projetados para realizar modificações precisamente no metabolismo metabólico exato
caminhos subjacentes a doenças e processos de envelhecimento com efeitos colaterais mínimos (observe que a grande maioria dos medicamentos no
o mercado hoje ainda reflete o velho paradigma; veja o capítulo 5). Produtos encomendados em cinco minutos na Web e entregues
à sua porta valem mais do que produtos que você mesmo precisa buscar. Roupas fabricadas sob medida para o seu
Página 98
corpos únicos valem mais do que roupas que você encontra em uma prateleira de loja. Esses tipos de melhorias estão levando
lugar na maioria das categorias de produtos, e nenhum deles é refletido nas estatísticas de produtividade.
Os métodos estatísticos subjacentes às medições de produtividade tendem a fatorar os ganhos essencialmente concluindo
que ainda recebemos apenas um dólar de produtos e serviços por um dólar, apesar do fato de recebermos muito mais por isso
dólar. (Os computadores são um exemplo extremo desse fenômeno, mas é generalizado.) Professor da Universidade de Chicago
Pete Klenow e o professor da Universidade de Rochester Mark Bils estimam que o valor em dólares constantes dos
Os bens aumentaram 1,5% ao ano nos últimos vinte anos devido a melhorias qualitativas. 84 Este
ainda não leva em consideração a introdução de produtos e categorias de produtos totalmente novos (por exemplo, telefones celulares,
pagers, computadores de bolso, músicas baixadas e programas de software). Não considera o valor crescente de
a própria Web. Como valorizamos a disponibilidade de recursos gratuitos, como enciclopédias online e motores de busca que
Fornece cada vez mais portais eficazes para o conhecimento humano?
O Bureau of Labor Statistics, que é responsável pelas estatísticas de inflação, usa um modelo que incorpora um
Estimativa de crescimento de qualidade de apenas 0,5 por cento ao ano. 85 Se usarmos a estimativa conservadora de Klenow e Bils, esta
Reflete uma subestimativa sistemática da melhoria da qualidade e uma superestimativa resultante da inflação em pelo menos 1
por cento por ano. E isso ainda não leva em consideração novas categorias de produtos.
Apesar dessas fragilidades nos métodos estatísticos, os ganhos de produtividade agora estão alcançando
a parte íngreme da curva exponencial. A produtividade do trabalho cresceu 1,6 por cento ao ano até 1994, depois subiu 2,4
por cento ao ano e agora está crescendo ainda mais rapidamente. A produtividade da manufatura em produção por hora cresceu em 4,4
por cento anualmente de 1995 a 1999, fabricação de bens duráveis em 6,5 por cento ao ano. No primeiro trimestre de 2004, o
A taxa anual ajustada de sazonalidade da mudança de produtividade foi de 4,6 por cento no setor empresarial e 5,9 por cento nos duráveis
fabricação de bens. 86
Vemos um crescimento exponencial suave no valor produzido por uma hora de trabalho ao longo do último meio século (ver o
figura abaixo). Novamente, essa tendência não leva em consideração o valor muito maior do poder de compra de um dólar
tecnologias da informação (que vem dobrando cerca de uma vez por ano em relação ao desempenho geral de preços). 87
[Link] 79/349
10/03/2021 ************************************************* ** *
Página 99
Em 1846, acreditamos que não havia uma única peça de roupa em nosso país costurada por máquinas; Naquele ano
foi emitida a primeira patente americana de uma máquina de costura. No momento presente, milhares são
vestindo roupas que foram costuradas por dedos de ferro, com uma delicadeza que rivaliza com a de uma caxemira
donzela.
- S CIENTIFIC A MERICAN , 1853
Enquanto este livro está sendo escrito, uma preocupação de muitos economistas tradicionais tanto da direita quanto da esquerda é
deflação. Em face disso, ter seu dinheiro indo mais longe parece ser uma coisa boa. A preocupação dos economistas é
Que se os consumidores puderem comprar o que precisam e querem com menos dólares, a economia encolherá (conforme medido em
dólares). Isso ignora, no entanto, as necessidades e desejos inerentemente insaciáveis dos consumidores humanos. As receitas do
a indústria de semicondutores, que "sofre" de 40 a 50 por cento de deflação ao ano, ainda assim cresceu 17 por cento
Todos os anos, durante o último meio século. 88 Como a economia está de fato se expandindo, essa implicação teórica da deflação
não deve causar preocupação.
A década de 1990 e o início dos anos 2000 viram as forças deflacionárias mais poderosas da história, o que explica por que somos
não vendo taxas de inflação significativas. Sim, é verdade que historicamente baixo desemprego, altos valores de ativos, economia
Página 100
crescimento, e outros fatores são inflacionários, mas esses fatores são compensados pelas tendências exponenciais no preço
desempenho de todas as tecnologias baseadas na informação: computação, memória, comunicações, biotecnologia,
miniaturização e até mesmo a taxa geral de progresso técnico. Essas tecnologias afetam profundamente todas as indústrias. Nós somos
Também está passando por desintermediação massiva nos canais de distribuição pela Web e outros novos
tecnologias de comunicação, bem como eficiências crescentes em operações e administração.
[Link] 80/349
10/03/2021 ************************************************* ** *
Uma vez que a indústria da informação está se tornando cada vez mais influente em todos os setores da economia, estamos vendo
O impacto crescente das taxas de deflação extraordinárias do setor de TI. Deflação durante a Grande Depressão no
A década de 1930 foi devido ao colapso da confiança do consumidor e ao colapso da oferta de dinheiro. A deflação de hoje é um
Fenômeno completamente diferente, causado pelo rápido aumento da produtividade e pela crescente difusão de
informações em todas as suas formas.
Todos os gráficos de tendências de tecnologia neste capítulo representam uma deflação maciça. Existem muitos exemplos de
Impacto dessas eficiências crescentes. O custo da BP Amoco para encontrar petróleo em 2000 foi inferior a um dólar por barril,
de quase dez dólares em 1991. O processamento de uma transação na Internet custa um centavo ao banco, em comparação com mais
de um dólar usando um caixa.
É importante ressaltar que uma das principais implicações da nanotecnologia é que ela trará a economia do software
para hardware - isto é, para produtos físicos. Os preços do software estão diminuindo ainda mais rapidamente do que os do hardware (veja
a figura abaixo).
O impacto das comunicações distribuídas e inteligentes foi sentido talvez mais intensamente no mundo de
o negócio. Apesar das dramáticas mudanças de humor em Wall Street, os valores extraordinários atribuídos às chamadas e-empresas
Durante a era de expansão dos anos 1990 refletiu uma percepção válida: os modelos de negócios que sustentaram os negócios por décadas
estão nas fases iniciais de uma transformação radical. Novos modelos baseados na comunicação direta personalizada com o
o cliente transformará todas as indústrias, resultando em desintermediação massiva das camadas intermediárias que têm
tradicionalmente separava o cliente da fonte final de produtos e serviços. Há, no entanto, um ritmo para todos
revoluções, e os investimentos e avaliações do mercado de ações nesta área se expandiram muito além das fases iniciais deste
curva S econômica.
Página 101
O ciclo de expansão e queda nessas tecnologias da informação era estritamente um mercado de capitais (valor das ações)
fenômeno. Nem o boom nem a queda são aparentes no business-to-consumer (B2C) e business-to-business real
(B2B) (veja a figura na próxima página). A receita real do B2C cresceu sem problemas de $ 1,8 bilhão em 1997 para $ 70
B2B 2002. Em bilhões teve crescimento semelhante, de $ 56 bilhões em 1999 para $ 482 bilhões em 2002. 90 em 2004 é
se aproximando de US $ 1 trilhão. Certamente não vemos qualquer evidência de ciclos de negócios no desempenho real de preço do
tecnologias subjacentes, como discuti extensivamente acima.
[Link] 81/349
10/03/2021 ************************************************* ** *
Expandir o acesso ao conhecimento também está mudando as relações de poder. Os pacientes cada vez mais abordam as visitas aos
Médico munido de uma compreensão sofisticada de sua condição médica e de suas opções. Consumidores de
praticamente tudo, desde torradeiras, carros e residências a bancos e seguros, agora usa agentes de software automatizados
para identificar rapidamente as escolhas certas com os melhores recursos e preços. Serviços da Web como o eBay estão rapidamente
conectando compradores e vendedores de maneiras sem precedentes.
Os desejos e vontades dos clientes, muitas vezes desconhecidos até mesmo para eles, estão rapidamente se tornando a força motriz
nas relações comerciais. Compradores de roupas bem relacionados, por exemplo, não ficarão satisfeitos por muito mais tempo
Com a liquidação de quaisquer itens que tenham sido deixados pendurados na prateleira de sua loja local. Em vez disso, eles selecionarão apenas
os materiais e estilos certos, vendo quantas combinações possíveis aparecem em uma imagem tridimensional de seus
próprio corpo (com base em uma varredura corporal detalhada) e, em seguida, tendo as escolhas feitas sob medida.
Página 102
As desvantagens atuais do comércio baseado na Web (por exemplo, limitações na capacidade de interagir diretamente com
produtos e as frustrações frequentes de interagir com menus e formulários inflexíveis em vez de pessoal humano)
dissolver-se gradualmente à medida que as tendências movem-se vigorosamente em favor do mundo eletrônico. No final desta década, os computadores
desaparecerá como objetos físicos distintos, com displays embutidos em nossos óculos e eletrônicos tecidos em nossas roupas,
Fornecendo realidade virtual visual de imersão total. Assim, "ir a um site" significará entrar em uma realidade virtual
ambiente - pelo menos para os sentidos visuais e auditivos - onde podemos interagir diretamente com produtos e pessoas,
real e simulado. Embora as pessoas simuladas não estejam de acordo com os padrões humanos - pelo menos não em 2009 - eles
serão bastante satisfatórios como agentes de vendas, funcionários de reservas e assistentes de pesquisa. Interfaces táteis (táteis) irão
nos permitem tocar em produtos e pessoas. É difícil identificar qualquer vantagem duradoura do velho tijolo e argamassa
mundo que não será definitivamente superado pelas ricas interfaces interativas que estão por vir.
Esses desenvolvimentos terão implicações significativas para o setor imobiliário. A necessidade de se reunir
Os trabalhadores em escritórios diminuirão gradualmente. Com a experiência de minhas próprias empresas, já somos capazes de
efetivamente organizar equipes geograficamente distintas, algo que era muito mais difícil há uma década. O cheio-
ambientes de realidade virtual visual-auditiva de imersão, que serão onipresentes durante a segunda década deste
século, acelerará a tendência de pessoas morando e trabalhando onde desejarem. Assim que tivermos imersão total
ambientes de realidade virtual incorporando todos os sentidos, o que será viável no final da década de 2020, não haverá
razão para utilizar escritórios reais. O mercado imobiliário se tornará virtual.
Como Sun Tzu apontou, "conhecimento é poder", e outra ramificação da lei dos retornos acelerados é o
crescimento exponencial do conhecimento humano, incluindo propriedade intelectual.
[Link] 82/349
10/03/2021 ************************************************* ** *
Página 103
Nada disso significa que os ciclos de recessão desaparecerão imediatamente. Recentemente, o país experimentou um
desaceleração econômica e recessão do setor de tecnologia e, em seguida, uma recuperação gradual. A economia ainda está sobrecarregada com
[Link] 83/349
10/03/2021 ************************************************* ** *
Página 104
Algumas das dinâmicas subjacentes que historicamente causaram ciclos de recessão: encargos excessivos, como
superinvestimento em projetos de capital intensivo e excesso de estoque. No entanto, porque o rápido
disseminação de informações, formas sofisticadas de aquisição online e mercados cada vez mais transparentes em todos
indústrias diminuíram o impacto deste ciclo, "recessões" provavelmente terão menos impacto direto em nosso padrão de
vivo. Esse parece ter sido o caso na mini-recessão que tivemos em 1991-1993 e tínhamos ainda mais experiência
evidente na recessão mais recente no início dos anos 2000. A taxa de crescimento de longo prazo subjacente continuará em um
taxa exponencial.
Além disso, a inovação e a taxa de mudança de paradigma não são afetadas de forma perceptível pelos pequenos desvios causados por
ciclos econômicos. Todas as tecnologias que exibem crescimento exponencial mostradas nos gráficos acima continuam
sem perder o ritmo com as recentes desacelerações econômicas. A aceitação do mercado também não mostra nenhuma evidência de boom e
busto. O crescimento geral da economia reflete formas e camadas completamente novas de riqueza e valor que não
existiam anteriormente, ou pelo menos que não constituíam uma parte significativa da economia, como novas formas
de materiais baseados em nanopartículas, informações genéticas, propriedade intelectual, portais de comunicação, sites,
largura de banda, software, bancos de dados e muitas outras novas categorias baseadas em tecnologia.
O setor geral de tecnologia da informação está aumentando rapidamente sua participação na economia e está cada vez mais
influente em todos os outros setores, conforme observado na figura abaixo. 92
Página 105
Outra implicação da lei dos retornos acelerados é o crescimento exponencial em educação e aprendizagem. Sobre o
nos últimos 120 anos, aumentamos nosso investimento na educação K-12 (por aluno e em dólares constantes) por um fator de
dez. Houve um aumento de cem vezes no número de estudantes universitários. A automação começou amplificando o
[Link] 84/349
10/03/2021 ************************************************* ** *
poder de nossos músculos e nos últimos tempos tem amplificado o poder de nossas mentes. Então, nos últimos dois séculos,
a automação tem eliminado empregos na base da escada de habilidades, ao mesmo tempo em que cria empregos novos (e mais bem pagos) em
o topo da escada de habilidades. A escada está subindo e, portanto, temos aumentado exponencialmente
investimentos em educação em todos os níveis (veja a figura abaixo). 93
Ah, e sobre aquela "oferta" no início deste précis, considere que os valores das ações presentes são baseados no futuro
expectativas. Dado que a visão intuitiva linear (literalmente) míope representa a perspectiva onipresente, o comum
sabedoria nas expectativas econômicas é dramaticamente subestimada. Uma vez que os preços das ações refletem o consenso de um comprador
mercado vendedor, os preços refletem a suposição linear subjacente de que a maioria das pessoas compartilham
crescimento. Mas a lei dos retornos acelerados implica claramente que a taxa de crescimento continuará a crescer exponencialmente,
porque a taxa de progresso continuará a acelerar.
M OLLY 2004: Mas espere um segundo, você disse que eu receberia oitenta trilhões de dólares se lesse e entendesse esta seção do
o capítulo.
R AY : Isso mesmo. De acordo com meus modelos, se substituirmos a perspectiva linear pela exponencial mais apropriada
Outlook, os preços atuais das ações devem triplicar. 94 Uma vez que há (conservadoramente) quarenta trilhões de dólares no patrimônio
mercados, são oitenta trilhões em riqueza adicional.
Página 106
Página 107
CAPÍTULO TRÊS
Como discuto em Engines of Creation, se você pode construir IA genuína, há razões para acreditar que você pode
construir coisas como neurônios que são um milhão de vezes mais rápidas. Isso leva à conclusão de que você pode fazer
sistemas que pensam um milhão de vezes mais rápido do que uma pessoa. Com a IA, esses sistemas poderiam fazer projetos de engenharia.
Combinando isso com a capacidade de um sistema de construir algo que é melhor do que isso, você tem o
possibilidade de uma transição muito abrupta. Esta situação pode ser mais difícil de lidar do que
nanotecnologia, mas é muito mais difícil pensar sobre isso de forma construtiva neste ponto. Portanto, não foi
o foco das coisas que discuto, embora eu aponte para isso periodicamente e diga: "Isso também é importante."
eu na edição de 19 de abril de 1965 da Electronics, Gordon Moore escreveu: "O futuro da eletrônica integrada é o
futuro da própria eletrônica. As vantagens da integração trarão uma proliferação de eletrônicos, empurrando
esta ciência em muitas novas áreas, " 1 Com essas palavras modestas, Moore deu início a uma revolução que ainda é
ganhando impulso. Para dar aos seus leitores uma ideia de quão profunda seria esta nova ciência, Moore previu que
"em 1975, a economia pode ditar a compressão de até 65.000 componentes em um único chip de silício." Imagine isso.
[Link] 86/349
10/03/2021 ************************************************* ** *
O artigo de Moore descreveu a repetida duplicação anual do número de transistores (usados para
elementos ou portas) que podem ser encaixados em um circuito integrado. Sua previsão de 1965 da "Lei de Moore" foi criticada em
o tempo porque seu gráfico logarítmico do número de componentes em um chip tinha apenas cinco pontos de referência (de
1959 a 1965), então projetar essa tendência nascente até 1975 foi visto como prematuro. Inicial de moore
A estimativa estava incorreta e ele a revisou para baixo uma década depois. Mas a ideia básica - o crescimento exponencial do
preço-desempenho de eletrônicos com base na redução do tamanho dos transistores em um circuito integrado - era válido e
presciente. 2
Hoje, falamos sobre bilhões de componentes em vez de milhares. Nos chips mais avançados de 2004, a lógica
portões têm apenas cinquenta nanômetros de largura, já bem dentro do reino da nanotecnologia (que lida com
medições de cem nanômetros ou menos). O fim da Lei de Moore foi previsto regularmente,
mas o fim desse paradigma notável continua sendo empurrado para fora no tempo. Paolo Gargini, Intel Fellow, diretor da Intel
estratégia de tecnologia e presidente do influente International Technology Roadmap for Semiconductors (ITRS),
declarou recentemente: "Vemos que, pelo menos nos próximos 15 a 20 anos, podemos continuar a obedecer à Lei de Moore. Na verdade, ...
A nanotecnologia oferece muitos botões novos que podemos usar para continuar melhorando o número de componentes em uma matriz. 3
A aceleração da computação transformou tudo, desde relações sociais e econômicas até políticas
Instituições, como demonstrarei ao longo deste livro. Mas Moore não destacou em seus artigos que a estratégia de
Página 108
encolher tamanhos de recursos não foi, de fato, o primeiro paradigma a trazer crescimento exponencial para computação e
comunicação. Foi o quinto, e já podemos ver os contornos do próximo: a computação em nível molecular e
em três dimensões. Mesmo que tenhamos mais de uma década restante do quinto paradigma, já houve
progresso convincente em todas as tecnologias capacitadoras necessárias para o sexto paradigma. Na próxima seção, eu forneço
Uma análise da quantidade de computação e memória necessária para atingir os níveis de inteligência humana e porque nós
pode ter certeza de que esses níveis serão alcançados em computadores baratos dentro de duas décadas. Mesmo estes muito
computadores poderosos estarão longe de ser ideais e, na última seção deste capítulo, revisarei os limites da computação
de acordo com as leis da física como as entendemos hoje. Isso nos levará aos computadores por volta do final dos anos vinte
primeiro século.
A ponte para a computação molecular 3-D. Etapas intermediárias já estão em andamento: novas tecnologias que levarão
ao sexto paradigma da computação tridimensional molecular incluem nanotubos e circuitos de nanotubos,
computação, automontagem em circuitos de nanotubos, montagem de circuitos de emulação de sistemas biológicos, computação com DNA,
spintrônica (computação com o spin dos elétrons), computação com luz e computação quântica. Muitos desses
tecnologias independentes podem ser integradas em sistemas computacionais que eventualmente se aproximarão da teoria
capacidade máxima de matéria e energia para realizar cálculos e ultrapassará em muito as capacidades computacionais de um
cérebro humano.
Uma abordagem é construir circuitos tridimensionais usando litografia de silício "convencional". Matriz
A Semiconductor já está vendendo chips de memória que contêm planos de transistores empilhados verticalmente, em vez de um plano
camada. 4 Uma vez que um único chip 3-D pode armazenar mais memória, o tamanho geral do produto é reduzido, então o Matrix tem como alvo inicial
eletrônicos portáteis, onde pretende competir com a memória flash (usada em telefones celulares e câmeras digitais porque
não perde informações quando a energia é desligada). O circuito empilhado também reduz o custo geral por bit.
Outra abordagem vem de um dos concorrentes da Matrix, Fujio Masuoka, um ex-engenheiro da Toshiba que inventou
memória flash. Masuoka afirma que seu novo design de memória, que parece um cilindro, reduz o tamanho e o custo.
por bit de memória por um fator de dez em comparação com chips planos. 5 Protótipos de trabalho de chips de silício tridimensionais
Também foram demonstrados no Centro de Integração Gigascale do Rensselaer Polytechnic Institute e no MIT
Media Lab.
A Nippon Telegraph and Telephone Corporation (NTT) de Tóquio demonstrou uma tecnologia 3-D dramática usando
litografia de feixe de elétrons, que pode criar estruturas tridimensionais arbitrárias com tamanhos de recursos (como
transistores) tão pequenos quanto dez nanômetros. 6 A NTT demonstrou a tecnologia criando um modelo de alta resolução do
Terra com sessenta mícrons de tamanho com recursos de dez nanômetros. A NTT diz que a tecnologia é aplicável à nanofabricação de
dispositivos eletrônicos, como semicondutores, bem como a criação de sistemas mecânicos em nanoescala.
Os nanotubos ainda são a melhor aposta. Em The Age of Spiritual Machines, citei nanotubos - usando moléculas organizadas
em três dimensões para armazenar bits de memória e atuar como portas lógicas - como a tecnologia mais provável para inaugurar a era de
computação molecular tridimensional. Os nanotubos, sintetizados pela primeira vez em 1991, são tubos constituídos por um
rede de átomos de carbono que foram enrolados para formar um cilindro contínuo. 7 Nanotubos são muito pequenos: parede única
os nanotubos têm apenas um nanômetro de diâmetro, portanto podem atingir altas densidades.
Eles também são potencialmente muito rápidos. Peter Burke e seus colegas da Universidade da Califórnia em Irvine recentemente
Circuitos de nanotubos demonstrados operando a 2,5 gigahertz (GHz). No entanto, em Nano Letters , um jornal revisado por pares
da American Chemical Society, Burke diz que o limite teórico de velocidade para esses transistores de nanotubos "deveria ser
terahertz (1 THz = 1.000 GHz), que é cerca de 1.000 vezes mais rápido do que as velocidades dos computadores modernos. " 8 Uma polegada cúbica de
os circuitos dos nanotubos, uma vez totalmente desenvolvidos, seriam até cem milhões de vezes mais poderosos que os humanos
cérebro. 9
[Link] 87/349
10/03/2021 ************************************************* ** *
O circuito
tecnologia do nanotubo
nos últimos foi controverso
seis anos. quando
Dois grandes o discuti
avanços foramem 1999,
feitos em mas houve
2001. um progresso
Um transistor dramático
baseado no
em nanotubos (com
dimensões de um por vinte nanômetros), operando em temperatura ambiente e usando apenas um único elétron para alternar
Página 109
entre estados ligados e desligados, foi relatado na edição de 6 de julho de 2001 da Science . 10 Mais ou menos na mesma época, a IBM também
Demonstrou um circuito integrado com mil transistores baseados em nanotubos. 11
Mais recentemente, vimos os primeiros modelos funcionais de circuitos baseados em nanotubos. Em janeiro de 2004, pesquisadores em
A Universidade da Califórnia em Berkeley e a Universidade de Stanford criaram um circuito de memória integrado baseado em
nanotubos. 12 Um dos desafios do uso dessa tecnologia é que alguns nanotubos são condutores (ou seja, simplesmente
transmitir eletricidade), enquanto outros agem como semicondutores (ou seja, são capazes de comutar e implementar a lógica
portões). A diferença de capacidade é baseada em recursos estruturais sutis. Até recentemente, classificá-los era necessário
operações manuais, o que não seria prático para a construção de circuitos de grande escala. Cientistas de Berkeley e Stanford
resolveu esse problema desenvolvendo um método totalmente automatizado de classificação e descarte do não semicondutor
nanotubos.
Alinhar nanotubos é outro desafio dos circuitos de nanotubos, pois eles tendem a crescer em todas as direções. No
2001 Cientistas da IBM demonstraram que os transistores de nanotubos podem ser cultivados em massa, semelhantes aos transistores de silício. Elas
usou um processo chamado "destruição construtiva", que destrói nanotubos defeituosos diretamente na pastilha, em vez de
classificando-os manualmente. Thomas Theis, diretor de ciências físicas do Thomas J. Watson Research Center da IBM,
disse na época: "Acreditamos que a IBM já ultrapassou um marco importante no caminho para os chips em escala molecular ... Se
finalmente tivermos sucesso, então os nanotubos de carbono nos permitirão manter indefinidamente a Lei de Moore em termos de
densidade, porque há muito pouca dúvida em minha mente de que eles podem ser menores do que qualquer silício futuro
transistor. 13 Em maio de 2003, Nantero, uma pequena empresa em Woburn, Massachusetts, cofundada pela Universidade de Harvard
o pesquisador Thomas Rueckes levou o processo um passo adiante quando demonstrou um wafer de chip único com dez bilhões
junções de nanotubos, todas alinhadas na direção correta. A tecnologia Nantero envolve o uso de litografia padrão
equipamento para remover automaticamente os nanotubos que estão incorretamente alinhados. O uso do equipamento padrão da Nantero tem
entusiasmou os observadores da indústria porque a tecnologia não exigiria novas máquinas de fabricação caras. O
O design do nantero fornece acesso aleatório, bem como não-volatilidade (os dados são retidos quando a energia é desligada), o que significa que
Ele poderia substituir potencialmente todas as formas primárias de memória: RAM, flash e disco.
Computing with Molecules. Além dos nanotubos, um grande progresso foi feito nos últimos anos na computação
com apenas uma ou algumas moléculas. A ideia de computação com moléculas foi sugerida pela primeira vez no início dos anos 1970 por
Avi Aviram da IBM e Mark A. Ratner da Northwestern University. 14 Naquela época, não tínhamos a habilitação
tecnologias, que exigiam avanços simultâneos em eletrônica, física, química e até mesmo na engenharia reversa
de processos biológicos para que a ideia ganhe força.
Em 2002, cientistas da Universidade de Wisconsin e da Universidade de Basel criaram uma "unidade de memória atômica" que
Usa átomos para emular um disco rígido. Um único átomo de silício pode ser adicionado ou removido de um bloco de vinte outros
usando um microscópio de tunelamento de varredura. Usando este processo, acreditam os pesquisadores, o sistema poderia ser usado para armazenar
milhões de vezes mais dados em um disco de tamanho comparável - uma densidade de cerca de 250 terabits de dados por polegada quadrada -
embora a demonstração envolva apenas um pequeno número de bits. Dia 15
A velocidade de um terahertz prevista por Peter Burke para circuitos moleculares parece cada vez mais precisa, dado o
transistor em nanoescala criado por cientistas da Universidade de Illinois em Urbana-Champaign. Funciona com uma frequência de
604 gigahertz (mais de meio terahertz). 16
Um tipo de molécula que os pesquisadores descobriram ter propriedades desejáveis para a computação é chamada de
"rotaxano", que pode mudar de estado mudando o nível de energia de uma estrutura em forma de anel contida na molécula.
Memória de rotaxane e dispositivos de comutação eletrônicos foram demonstrados e mostram o potencial de armazenamento
cem gigabits (10 11 bits) por polegada quadrada. O potencial seria ainda maior se organizado em três dimensões.
Auto-montagem. A automontagem de circuitos em nanoescala é outra técnica fundamental para uma nanoeletrônica eficaz.
A automontagem permite que componentes malformados sejam descartados automaticamente e torna possível que o
potencialmente trilhões de componentes de circuito para se organizarem, em vez de serem meticulosamente montados em um
processo de descida. Isso permitiria que circuitos em grande escala fossem criados em tubos de ensaio, em vez de fábricas multibilionárias,
Página 110
usando química em vez de litografia, de acordo com cientistas da UCLA. 17 pesquisadores da Purdue University já
[Link] 88/349
10/03/2021 ************************************************* ** *
Estruturas de nanotubos auto-organizadas demonstradas, usando o mesmo princípio que faz com que as fitas de DNA se liguem em
estruturas estáveis. 18
Os cientistas da Universidade de Harvard deram um passo importante em junho de 2004, quando demonstraram outra auto-
método que pode ser usado para organizar em grande escala. 19 A técnica começa com fotolitografia para criar uma gravura
matriz de interconexões (conexões entre elementos computacionais). Um grande número de efeitos de campo de nanofios
transistores (uma forma comum de transistores) e interconexões em nanoescala são então depositados na matriz. Estes então
conectem-se no padrão correto.
Em 2004, pesquisadores da University of Southern California e do Ames Research Center da NASA demonstraram um
método que auto-organiza circuitos extremamente densos em uma solução química. 20 A técnica cria nanofios
espontaneamente e, em seguida, faz com que as células de memória em nanoescala, cada uma capaz de conter três bits de dados, se automontem no
fios. A tecnologia tem uma capacidade de armazenamento de 258 gigabits de dados por polegada quadrada (que os pesquisadores afirmam ser
aumentou dez vezes), em comparação com 6,5 gigabits em um cartão de memória flash. Também em 2003 a IBM demonstrou um trabalho
dispositivo de memória usando polímeros que se auto-montam em estruturas hexagonais de vinte nanômetros de largura. 21
Também é importante que os nanocircuitos sejam autoconfiguráveis. O grande número de componentes do circuito e seus inerentes
a fragilidade (devido ao seu pequeno tamanho) torna inevitável que algumas partes de um circuito não funcionem corretamente. Será
não seria economicamente viável descartar um circuito inteiro simplesmente porque um pequeno número de transistores em um trilhão
não estão funcionando. Para resolver esta preocupação, os circuitos futuros irão monitorar continuamente seu próprio desempenho e
encaminhe informações em torno de seções não confiáveis, da mesma maneira que as informações na Internet são roteadas
em torno de nós não funcionantes. A IBM tem sido particularmente ativa nesta área de pesquisa e já desenvolveu
Projetos de microprocessadores que diagnosticam problemas automaticamente e reconfiguram os recursos do chip de acordo. 22
Emulando Biologia. A ideia de construir sistemas eletrônicos ou mecânicos que são auto-replicantes e auto-organizados
é inspirado pela biologia, que conta com essas propriedades. Pesquisa publicada no Proceedings of the National
A Academia de Ciências descreveu a construção de nanofios auto-replicáveis baseados em príons, que são auto-
proteínas replicantes. (Conforme detalhado no capítulo 4, uma forma de príon parece desempenhar um papel na memória humana, enquanto
Acredita-se que outra forma seja responsável pela variante da doença de Creutzfeldt-Iakob, a forma humana da vaca louca
doença.) 23 A equipe envolvida no projeto usou príons como modelo por causa de sua força natural. Porque os príons fazem
Normalmente não conduz eletricidade, no entanto, os cientistas criaram uma versão geneticamente modificada contendo uma camada fina
de ouro, que conduz eletricidade com baixa resistência. Susan Lindquist, professora de biologia do MIT, que chefiou o estudo,
comentou: "A maioria das pessoas que trabalham com nanocircuitos está tentando construí-los usando a fabricação 'de cima para baixo'
técnicas. Pensamos em tentar uma abordagem 'de baixo para cima' e deixar a automontagem molecular fazer o trabalho difícil por nós. "
A molécula auto-replicante definitiva da biologia é, obviamente, o DNA. Pesquisadores da Duke University criaram
blocos de construção moleculares chamados "ladrilhos" de moléculas de DNA de automontagem. 24 Eles foram capazes de controlar o
estrutura da montagem resultante, criando "nanogrids". Esta técnica liga automaticamente as moléculas de proteína a
cada célula da nanogrid, que poderia ser usada para realizar operações de computação. Eles também demonstraram um produto químico
processo que revestiu as nanofitas de DNA com prata para criar nanofios. Comentando sobre o artigo em setembro
26, 2003, edição da revista Science, o pesquisador principal Hao Yan disse: "Para usar a automontagem do DNA para modelar a proteína."
moléculas ou outras moléculas têm sido procuradas por anos, e esta é a primeira vez que isso foi demonstrado tão claramente. " 25
Computando com DNA. O DNA é o computador da própria nanoengenharia da natureza e sua capacidade de armazenar informações e
conduzir manipulações lógicas no nível molecular já foi explorado em "computadores de DNA" especializados. UMA
O computador de DNA é essencialmente um tubo de ensaio cheio de água contendo trilhões de moléculas de DNA, com cada molécula
atuando como um computador.
O objetivo do cálculo é resolver um problema, com a solução expressa como uma sequência de símbolos. (Pra
exemplo, a sequência de símbolos pode representar uma prova matemática ou apenas os dígitos de um número.) Veja como um
O computador de DNA funciona. Uma pequena fita de DNA é criada, usando um código exclusivo para cada símbolo. Cada uma dessas vertentes é
Página 111
replicado trilhões de vezes usando um processo chamado "reação em cadeia da polimerase" (PCR). Esses pools de DNA são então
colocado em um tubo de ensaio. Como o DNA tem afinidade para ligar as fitas, as longas fitas se formam automaticamente, com
Seqüências de fios representando os diferentes símbolos, cada um deles uma solução possível para o problema. Desde a
Haverá muitos trilhões de tais fios, há vários fios para cada resposta possível (ou seja, cada possível
sequência de símbolos).
A próxima etapa do processo é testar todos os fios simultaneamente. Isso é feito usando
enzimas que destroem os fios que não atendem a certos critérios. As enzimas são aplicadas ao tubo de ensaio sequencialmente,
e ao projetar uma série precisa de enzimas, o procedimento acabará por obliterar todas as fitas incorretas, deixando
apenas aqueles com a resposta correta. (Para uma descrição mais completa do processo, veja esta nota: 26 )
A chave para o poder da computação de DNA é que ela permite testar cada um dos trilhões de fios
simultaneamente. Em 2003, cientistas israelenses liderados por Ehud Shapiro no Instituto de Ciência Weizmann combinaram DNA
com adenosina trifosfato (ATP), o combustível natural para sistemas biológicos como o corpo humano. 27 com isso
método, cada uma das moléculas de DNA foi capaz de realizar cálculos, bem como fornecer sua própria energia. O
Os cientistas de Weizmann demonstraram uma configuração de duas colheres deste sistema de supercomputação de líquido,
que continha trinta milhões de bilhões de computadores moleculares e realizou um total de 660 trilhões de cálculos por
[Link] 89/349
10/03/2021 ************************************************* ** *
segundo (6,6 10 14 cps). O consumo de energia desses computadores é extremamente baixo, apenas cinquenta milionésimos de um watt
para todos os trinta milhões de bilhões de computadores.
Há uma limitação, no entanto, para a computação de DNA: cada um dos muitos trilhões de computadores tem que funcionar
mesma operação ao mesmo tempo (embora em dados diferentes), de modo que o dispositivo seja uma "única instrução de dados múltiplos"
Arquitetura (SIMD). Embora existam classes importantes de problemas que são passíveis de um sistema SIMD (por exemplo,
processamento de cada pixel em uma imagem para aprimoramento ou compressão de imagem e solução de lógica combinatória
problemas), não é possível programá-los para algoritmos de uso geral, em que cada computador é capaz de
execute qualquer operação que seja necessária para sua missão específica. (Observe que os projetos de pesquisa da Purdue University
e a Duke University, descrita anteriormente, que usam fitas de DNA de automontagem para criar estruturas tridimensionais
são diferentes da computação de DNA descrita aqui. Esses projetos de pesquisa têm o potencial de criar
configurações que não se limitam à computação SIMD.)
Computando com Spin. Além de sua carga elétrica negativa, os elétrons têm outra propriedade que pode ser
explorado para memória e computação: spin. De acordo com a mecânica quântica, os elétrons giram em um eixo, semelhante a
a forma como a Terra gira em seu eixo. Este conceito é teórico, pois considera-se que um elétron ocupa um ponto em
espaço, por isso é difícil imaginar um ponto sem tamanho que, mesmo assim, gira. No entanto, quando uma carga elétrica
se move, causa um campo magnético, que é real e mensurável. Um elétron pode girar em uma das duas direções,
Descrito como "para cima" e "para baixo", essa propriedade pode ser explorada para comutação lógica ou para codificar um pouco de memória.
A propriedade empolgante da spintrônica é que nenhuma energia é necessária para alterar o estado de spin de um elétron. Stanford
O professor de física da Universidade Shoucheng Zhang e o professor da Universidade de Tóquio Naoto Nagaosa explicam desta forma:
Descobriram o equivalente a uma nova 'Lei de Ohm' [a lei da eletrônica que afirma que a corrente em um fio é igual a
voltagem dividida pela resistência] .... [Diz] que o spin do elétron pode ser transportado sem qualquer perda de energia, ou
dissipação. Além disso, esse efeito ocorre à temperatura ambiente em materiais já amplamente utilizados na indústria de semicondutores.
indústria, como o arsenieto de gálio. Isso é importante porque pode permitir uma nova geração de dispositivos de computação. " 28
O potencial, então, é alcançar as eficiências de supercondutor (isto é, mover informações em ou perto do
velocidade da luz sem qualquer perda de informação) à temperatura ambiente. Também permite várias propriedades de cada elétron
para ser usado para computação, aumentando assim o potencial para memória e densidade computacional.
Uma forma de spintrônica já é familiar aos usuários de computador: a magnetorresistência (uma mudança na resistência elétrica
Causado por um campo magnético) é usado para armazenar dados em discos rígidos magnéticos. Uma nova forma empolgante de não volátil
memória baseada em spintrônica chamada MRAM (memória magnética de acesso aleatório) deve entrar no mercado dentro
alguns anos. Como os discos rígidos, a memória MRAM retém seus dados sem energia, mas não usa peças móveis e terá
velocidades e capacidade de regravação comparáveis à RAM convencional.
Página 112
MRAM armazena informações em ligas metálicas ferromagnéticas, que são adequadas para armazenamento de dados, mas não para o
operações lógicas de um microprocessador. O Santo Graal da spintrônica seria alcançar efeitos práticos da spintrônica
em um semicondutor, o que nos permitiria usar a tecnologia tanto para memória quanto para lógica. Chip de hoje
a fabricação é baseada em silício, que não possui as propriedades magnéticas necessárias. Em março de 2004, um
grupo internacional de cientistas relatou que ao dopar uma mistura de silício e ferro com cobalto, o novo material foi
capaz de exibir as propriedades magnéticas necessárias para a spintrônica, mantendo a estrutura cristalina do silício
requer como sernicondutor. 29
Um papel importante para a spintrônica no futuro da memória do computador é claro, e é provável que contribua para a lógica
sistemas também. O spin de um elétron é uma propriedade quântica (sujeita às leis da mecânica quântica), então talvez
A aplicação mais importante da spintrônica será em sistemas de computação quântica, usando o spin do quantum.
elétrons emaranhados para representar qubits, que discuto a seguir.
Spin também tem sido usado para armazenar informações no núcleo dos átomos, usando a interação complexa de seus
momentos magnéticos dos prótons. Cientistas da Universidade de Oklahoma também demonstraram uma "fotografia molecular".
técnica para armazenar 1.024 bits de informação em uma única molécula de cristal líquido compreendendo dezenove de hidrogênio
átomos. 30
Computando com luz. Outra abordagem para a computação SIMD é usar vários feixes de luz laser em que
a informação é codificada em cada fluxo de fótons. Os componentes ópticos podem então ser usados para realizar ações lógicas e
funções aritméticas nos fluxos de informação codificados. Por exemplo, um sistema desenvolvido por Lenslet, um pequeno israelense
empresa, usa 256 lasers e pode realizar oito trilhões de cálculos por segundo, realizando o mesmo cálculo em
cada um dos 256 fluxos de dados. 31 O sistema pode ser usado para aplicativos como a realização de compactação de dados em
256 canais de vídeo.
As tecnologias SIMD, como computadores de DNA e computadores ópticos, terão importantes funções especializadas a desempenhar em
o futuro da computação. A replicação de certos aspectos da funcionalidade do cérebro humano, como o processamento
dados sensoriais, podem usar arquiteturas SIMD. Para outras regiões do cérebro, como aquelas que lidam com aprendizagem e raciocínio,
Será necessária a computação de uso geral com suas arquiteturas de "dados múltiplos de instrução múltipla" (MIMD). Pra
computação MIMD de alto desempenho, precisaremos aplicar os paradigmas de computação molecular tridimensional
Descrito acima.
[Link] 90/349
10/03/2021 ************************************************* ** *
Computação quântica. A computação quântica é uma forma ainda mais radical de processamento paralelo SIMD, mas que é
em um estágio muito anterior de desenvolvimento em comparação com as outras novas tecnologias que discutimos. Um quantum
o computador contém uma série de qubits, que são essencialmente zero e um ao mesmo tempo. O qubit é baseado no
ambigüidade fundamental inerente à mecânica quântica. Em um computador quântico, os qubits são representados por um
Propriedade quântica das partículas - por exemplo, o estado de spin de elétrons individuais. Quando os qubits estão em um
estado "emaranhado", cada um está simultaneamente em ambos os estados. Em um processo chamado "decoerência quântica", a ambigüidade
de cada qubit é resolvido, deixando uma sequência inequívoca de uns e zeros. Se o computador quântico estiver configurado em
da maneira certa, essa sequência descoerida representará a solução para um problema. Essencialmente, apenas a sequência correta
sobrevive ao processo de decoerência.
Tal como acontece com o computador DNA descrito acima, a chave para o sucesso da computação quântica é uma declaração cuidadosa do
problema, incluindo uma maneira precisa de testar as respostas possíveis. O computador quântico testa efetivamente todos os possíveis
combinação de valores para os qubits. Assim, um computador quântico com mil qubits testaria 2 1.000 (um número
aproximadamente igual a um seguido por 301 zeros) soluções potenciais simultaneamente.
Um computador quântico de mil bits superaria amplamente qualquer computador de DNA concebível, ou por falar nisso
qualquer computador não quântico concebível. Existem duas limitações para o processo, no entanto. O primeiro é que, como o
DNA e computadores ópticos discutidos acima, apenas um conjunto especial de problemas é passível de ser apresentado a um
computador quântico. Em essência, precisamos ser capazes de testar cada resposta possível de uma forma simples.
Página 113
O exemplo clássico de um uso prático para a computação quântica é fatorar números muito grandes (descobrir quais
números, quando multiplicados menores juntos, resultam no grande número). Fatorar números com mais de 512 bits é
Atualmente não alcançável em um computador digital, mesmo em um maciçamente paralelo. 32 classes interessantes de problemas
acessíveis à computação quântica incluem quebrar códigos de criptografia (que dependem da fatoração de grandes números). O
outro problema é que o poder computacional de um computador quântico depende do número de qubits emaranhados, e
o estado da arte está atualmente limitado a cerca de dez bits. Um computador quântico de dez bits não é muito útil, pois 2 10 é
apenas 1.024. Em um computador convencional, é um processo simples combinar bits de memória e portas lógicas. Nós
não pode, entretanto, criar um computador quântico de vinte qubit simplesmente combinando duas máquinas de dez qubit. Todos os
os qubits precisam ser emaranhados quânticos, e isso tem se mostrado desafiador.
Uma questão chave é: quão difícil é adicionar cada qubit adicional? O poder computacional de um quantum
computador cresce exponencialmente com cada qubit adicionado, mas se descobrir que adicionar cada qubit adicional, o
tarefa de engenharia exponencialmente mais difícil, não ganharemos qualquer vantagem. (Ou seja, o poder computacional
de um computador quântico será apenas linearmente proporcional à dificuldade de engenharia.) Em geral, os métodos propostos
Para adicionar qubits, torne os sistemas resultantes significativamente mais delicados e suscetíveis à decoerência prematura.
Existem propostas para aumentar significativamente o número de qubits, embora estes ainda não tenham sido comprovados em
prática. Por exemplo, Stephan Gulde e seus colegas da Universidade de Innsbruck construíram um computador quântico
usando um único átomo de cálcio que tem o potencial de codificar simultaneamente dezenas de qubits - possivelmente até um
Cem - usando diferentes propriedades quânticas dentro do átomo. 33 O papel final da computação quântica permanece
não resolvido. Mas mesmo que um computador quântico com centenas de qubits emaranhados se mostre viável, ele permanecerá um
dispositivo de uso especial, embora seja um com recursos notáveis que não podem ser emulados de nenhuma outra maneira.
Quando sugeri em The Age of Spiritual Machines que a computação molecular seria a sexta maior
paradigma da computação, a ideia ainda era polêmica. Houve tanto progresso nos últimos cinco anos que
tem havido uma grande mudança de atitude entre os especialistas, e agora essa é uma visão dominante. Já temos provas de
Conceito para todos os principais requisitos para computação molecular tridimensional: transistores de molécula única,
células de memória baseadas em átomos, nanofios e métodos de automontagem e autodiagnóstico de trilhões (potencialmente
trilhões de trilhões) de componentes.
A eletrônica contemporânea vai desde o design de layouts detalhados de chips até a fotolitografia e
fabricação de chips em grandes fábricas centralizadas. Nanocircuitos são mais prováveis de serem criados em pequena química
frascos, um empreendimento que será mais um passo importante na descentralização de nossa infraestrutura industrial e irá
Manter a lei dos retornos acelerados ao longo deste século e além.
Pode parecer precipitado esperar máquinas totalmente inteligentes daqui a algumas décadas, quando os computadores mal
mentalidade de inseto compatível em meio século de desenvolvimento. Na verdade, por esse motivo, muitos artificiais de longa data
os pesquisadores da inteligência zombam da sugestão e apresentam alguns séculos como um período mais verossímil. Mas
Existem boas razões para as coisas correrem muito mais rápido nos próximos cinquenta anos do que nos últimos
cinquenta. . . . Desde 1990, a potência disponível para programas individuais de IA e robótica dobrou anualmente, para 30
MIPS em 1994 e 500 MIPS em 1998. Sementes há muito consideradas estéreis estão repentinamente brotando. Máquinas lidas
texto, reconhecer fala e até traduzir idiomas. Os robôs dirigem pelo país, rastejam por Marte e rodam
nos corredores do escritório. Em 1996, um programa de prova de teorema chamado EQP rodando cinco semanas em um 50 MIPS
[Link] 91/349
10/03/2021 ************************************************* ** *
computador do Laboratório Nacional de Argonne encontrou uma prova de uma conjectura de álgebra booleana de Herbert Robbins
que havia iludido os matemáticos por sessenta anos. E ainda é apenas primavera. Espere até o verão.
-H ANS M Oravec , “W HEN W ILL C omputer H ARDWARE M ATCH T HE H UMAN B CHUVA ?”
1997
Página 114
Qual é a capacidade computacional de um cérebro humano? Uma série de estimativas foram feitas, com base na replicação do
funcionalidade de regiões do cérebro que foram submetidas a engenharia reversa (isto é, os métodos compreendidos) em níveis humanos de
atuação. Uma vez que temos uma estimativa da capacidade computacional para uma determinada região, podemos extrapolar que
capacidade para todo o cérebro, considerando que parte do cérebro essa região representa. Essas estimativas são baseadas
na simulação funcional, que replica a funcionalidade geral de uma região em vez de simular cada neurônio e
conexão interneuronal naquela região.
Embora não queiramos confiar em nenhum cálculo único, descobrimos que várias avaliações de diferentes
regiões do cérebro fornecem estimativas razoavelmente próximas para todo o cérebro. A seguir estão a ordem de magnitude
estimativas, o que significa que estamos tentando determinar os números apropriados para o múltiplo de dez mais próximo. O fato
que diferentes maneiras de fazer a mesma estimativa fornecem respostas semelhantes corrobora a abordagem e indica que
as estimativas estão em uma faixa apropriada.
A previsão de que a Singularidade - uma expansão da inteligência humana por um fator de trilhões por meio da fusão
com sua forma não biológica - ocorrerá nas próximas décadas não depende da precisão destes
cálculos. Mesmo que nossa estimativa da quantidade de computação necessária para simular o cérebro humano fosse muito
otimista (isto é, muito baixo) por um fator de até mil (o que eu acredito ser improvável), isso atrasaria o
Singularidade por apenas cerca de oito anos. 34 Um fator de um milhão significaria um atraso de apenas cerca de quinze anos, e um
fator de um bilhão seria um atraso de cerca de vinte e um anos. 35
Hans Moravec, lendário roboticista da Carnegie Mellon University, analisou as transformações realizadas
pelos circuitos de processamento de imagem neural contidos na retina. 36 A retina tem cerca de dois centímetros e meio de largura
milímetros de espessura. A maior parte da profundidade da retina é dedicada à captura de uma imagem, mas um quinto dela é dedicada à imagem
processamento, que inclui distinguir escuro e claro, e detectar movimento em cerca de um milhão de pequenas regiões de
a imagem.
A retina, de acordo com a análise de Moravec, realiza dez milhões dessas detecções de borda e movimento cada
segundo. Com base em suas várias décadas de experiência na criação de sistemas de visão robótica, ele estima que a execução
de cerca de cem instruções de computador são necessárias para recriar cada uma dessas detecções em níveis humanos de
desempenho, o que significa que a replicação da funcionalidade de processamento de imagem desta parte da retina requer 1.000
MIPS. O cérebro humano é cerca de 75.000 vezes mais pesado do que os 0,02 gramas de neurônios nesta parte da retina,
resultando em uma estimativa de cerca de 10 14 (100 trilhões) de instruções por segundo para todo o cérebro. 37
Outra estimativa vem do trabalho de Lloyd Watts e seus colegas na criação de simulações funcionais de
regiões do sistema auditivo humano, que discuto mais detalhadamente no capítulo 4. 38 Uma das funções do software
Watts desenvolveu uma tarefa chamada "separação de fluxo", que é usada em teleconferência e outras aplicações para
Alcance a telepresença (a localização de cada participante em uma teleconferência de áudio remota), Para conseguir isso, Watts
Explica, significa "medir com precisão o atraso de tempo entre os sensores de som que estão separados no espaço e que ambos
receber o som. "O processo envolve análise de tom, posição espacial e pistas de fala, incluindo linguagem específica
dicas. "Uma das dicas importantes usadas pelos humanos para localizar a posição de uma fonte de som é o Tempo Interaural
Diferença (ITD), ou seja, a diferença no tempo de chegada dos sons nas duas orelhas. ” 39
O próprio grupo de Watts criou recriações funcionalmente equivalentes dessas regiões do cérebro derivadas do reverso
Engenharia. Ele estima que 10 11 cps são necessários para atingir a localização de sons em nível humano. O córtex auditivo
regiões responsáveis por esse processamento compreendem pelo menos 0,1 por cento dos neurônios do cérebro. Então, novamente chegamos a um
estimativa aproximada de cerca de 10 14 cps 10 3 ).
Ainda outra estimativa vem de uma simulação na Universidade do Texas que representa a funcionalidade de um
região cerebelo contendo 10 4 neurónios; Isso exigia cerca de 10 8 cps, ou cerca de 10 4 cps por neurônio. Extrapolando isso
mais de 10 11 neurônios estimados resulta em uma figura de cerca de 10 15 cps para todo o cérebro.
Discutiremos o estado da engenharia reversa do cérebro humano mais tarde, mas é claro que podemos emular o
funcionalidade das regiões do cérebro com menos computação do que seria necessário para simular a operação não linear precisa
de cada neurônio e todos os componentes neurais (ou seja, todas as interações complexas que ocorrem dentro de cada
Página 115
[Link] 92/349
10/03/2021 ************************************************* ** *
neurônio). Chegamos à mesma conclusão quando tentamos simular a funcionalidade dos órgãos do corpo. Pra
por exemplo, dispositivos implantáveis estão sendo testados para simular a funcionalidade do pâncreas humano na regulação
níveis de insulina. 40 Esses dispositivos funcionam medindo os níveis de glicose no sangue e liberando insulina de forma controlada
moda para manter os níveis em uma faixa adequada. Embora sigam um método semelhante ao do pâncreas biológico,
eles não tentam, entretanto, simular cada célula das ilhotas pancreáticas e não haveria razão para fazê-lo.
Todas essas estimativas resultam em ordens de magnitude comparáveis (10 14 a 10 15 cps). Dado o estágio inicial da
engenharia reversa do cérebro, usarei uma figura mais conservadora de 10 16 cps para nossas discussões subsequentes.
A simulação funcional do cérebro é suficiente para recriar os poderes humanos de reconhecimento de padrões, intelecto e
inteligencia emocional. Por outro lado, se quisermos "carregar" a personalidade de uma pessoa específica (ou seja, capturar todos
de seu conhecimento, habilidades e personalidade, um conceito que explorarei com mais detalhes no final do capítulo 4), então
podemos precisar simular processos neurais no nível de neurônios individuais e porções de neurônios, como o soma
(corpo celular), axônio (conexão de saída), dendritos (árvores de conexões de entrada) e sinapses (regiões conectando
axônios e dendritos). Para isso, precisamos examinar modelos detalhados de neurônios individuais. O "leque" (número de
conexões interneuronais) por neurônio é estimado em 10 3 . Com uma estimativa de 10 11 neurônios, isso é cerca de 10 14
conexões. Com um tempo de reinicialização de cinco milissegundos, isso chega a cerca de 10 16 transações sinápticas por segundo.
Simulações de modelo de neurônio indicam a necessidade de cerca de 10 3 cálculos por transação sináptica para capturar o
não linearidades (interações complexas) nos dendritos e outras regiões de neurônios, resultando em uma estimativa geral de
cerca de 10 19 cps para simular o cérebro humano neste nível. 41 Podemos, portanto, considerar este um limite superior, mas 10 14
a 10 16 cps para atingir a equivalência funcional de todas as regiões do cérebro é provavelmente suficiente.
O supercomputador Blue Gene / L da IBM, agora sendo construído e programado para ser concluído na época do
A publicação deste livro é projetada para fornecer 360 trilhões de cálculos por segundo (3,6 10 14 cps). 42 Esta figura é
já maior do que as estimativas mais baixas descritas acima. Blue Gene / L também terá cerca de cem terabytes
(cerca de 10 15 bits) de armazenamento principal, mais do que nossa estimativa de memória para emulação funcional do cérebro humano (ver
abaixo de). De acordo com minhas previsões anteriores, os supercomputadores atingirão minha estimativa mais conservadora de 10 16 cps para
emulação funcional do cérebro humano no início da próxima década (veja a figura "Poder do Supercomputador" na pág. 71).
Acelerando a disponibilidade de computação pessoal em nível humano. Os computadores pessoais hoje fornecem mais do que
10 9 cps. De acordo com as projeções do gráfico "Crescimento Exponencial da Computação" (p. 70), atingiremos 10 16 cps
até 2025. No entanto, há várias maneiras de acelerar esse cronograma. Em vez de usar de propósito geral
processadores, pode-se usar circuitos integrados específicos do aplicativo (ASICs) para fornecer maior desempenho de preço para muito
cálculos repetitivos. Tais circuitos já fornecem rendimento computacional extremamente alto para os repetitivos
cálculos usados na geração de imagens em movimento em videogames. ASICs podem aumentar o desempenho de preço mil vezes,
cortando cerca de oito anos da data de 2025. Os variados programas que uma simulação do cérebro humano compreenderá
também incluirá uma grande quantidade de repetição e, portanto, será passível de implementação ASIC. O cerebelo para
por exemplo, repete um padrão básico de fiação bilhões de vezes.
Também seremos capazes de amplificar o poder dos computadores pessoais, colhendo o poder de computação não utilizado de
dispositivos na Internet. Novos paradigmas de comunicação como a computação "mesh" contemplam o tratamento de todos os dispositivos
na rede como um nó em vez de apenas um "raio". 43 Em outras palavras, em vez de dispositivos (como computadores pessoais
e PDAs) meramente enviando informações de e para os nós, cada dispositivo atuará como um nó, enviando informações para
e receber informações de todos os outros dispositivos. Isso criará uma comunicação muito robusta e auto-organizada
redes. Isso também tornará mais fácil para os computadores e outros dispositivos acessar os ciclos de CPU não utilizados dos dispositivos em seus
região da malha.
Atualmente, pelo menos 99 por cento, senão 99,9 por cento, da capacidade computacional de todos os computadores na Internet
encontra-se sem uso. O aproveitamento eficaz desse cálculo pode fornecer outro fator de 10 2 ou 10 3 no preço aumentado -
atuação. Por essas razões, é razoável esperar a capacidade do cérebro humano, pelo menos em termos de hardware
capacidade computacional, de mil dólares por volta de 2020.
Página 116
Ainda outra abordagem para acelerar a disponibilidade de computação de nível humano em um computador pessoal é usar
transistores em seu modo "analógico" nativo. Muitos dos processos do cérebro humano são analógicos, não digitais. Embora
Podemos emular processos analógicos com qualquer grau desejado de precisão com computação digital, perdemos várias ordens de
magnitude da eficiência em fazê-lo. Um único transistor pode multiplicar dois valores representados como níveis analógicos; fazendo isso
Com circuitos digitais requer milhares de transistores. Carver Mead, do Instituto de Tecnologia da Califórnia,
pioneiro neste conceito. 44 Uma desvantagem da abordagem de Mead é que o tempo de projeto de engenharia necessário para tal
A computação analógica nativa é demorada, então a maioria dos pesquisadores que desenvolvem software para emular regiões do cérebro geralmente
prefere o rápido retorno das simulações de software.
Capacidade de memória humana. Como a capacidade computacional se compara à capacidade de memória humana? Acontece que
chegamos a estimativas de prazos semelhantes se observarmos os requisitos de memória humana. O número de "pedaços" de
o conhecimento dominado por um especialista em um domínio é de aproximadamente 10 5 para uma variedade de domínios. Esses pedaços representam
padrões (como rostos), bem como conhecimentos específicos. Por exemplo, estima-se que um mestre de xadrez de classe mundial tenha
[Link] 93/349
10/03/2021 ************************************************* ** *
dominou cerca de 100.000 posições no conselho. Shakespeare usou 29.000 palavras, mas cerca de 100.000 significados dessas
palavras. O desenvolvimento de sistemas especialistas em medicina indica que os humanos podem dominar cerca de 100.000 conceitos em um
domínio. Se estimarmos que este conhecimento "profissional" representa apenas 1 por cento do padrão geral e
No estoque de conhecimento de um ser humano, chegamos a uma estimativa de 10 7 blocos.
Com base na minha própria experiência na concepção de sistemas que podem armazenar blocos semelhantes de conhecimento em qualquer sistema baseado em regras
sistemas especialistas ou sistemas de reconhecimento de padrões auto-organizados, uma estimativa razoável é de cerca de 10 6 bits por bloco
(padrão ou item de conhecimento), para uma capacidade total de 10 13 (10 trilhões) de bits para a memória funcional de um ser humano.
De acordo com as projeções do road map ITRS (ver gráfico RAM na pág. 57), seremos capazes de adquirir 10 13
bits de memória por mil dólares por volta de 2018. Lembre-se de que essa memória será milhões de vezes
Mais rápido do que o processo de memória eletroquímica usado no cérebro humano e, portanto, será muito mais eficaz.
Novamente, se modelarmos a memória humana no nível de conexões interneuronais individuais, obteremos uma estimativa mais alta.
Podemos estimar cerca de 10 4 bits por conexão para armazenar os padrões de conexão e as concentrações de neurotransmissores.
Com uma estimativa de 10 14 conexões, isso dá 10 18 (um bilhão de bilhões) de bits.
Com base nas análises acima, é razoável esperar que o hardware que pode emular a funcionalidade do cérebro humano
estará disponível por aproximadamente mil dólares por volta de 2020. Como discutiremos no capítulo 4, o software que
irá replicar essa funcionalidade levará cerca de uma década a mais. No entanto, o crescimento exponencial do preço
o desempenho, a capacidade e a velocidade de nossa tecnologia de hardware continuarão durante esse período, portanto, em 2030, será necessário
uma vila de cérebros humanos (cerca de mil) para corresponder ao equivalente a mil dólares em computação. Em 2050, um
mil dólares em computação excederão o poder de processamento de todos os cérebros humanos na Terra. Claro, esta figura
Inclui aqueles cérebros que ainda usam apenas neurônios biológicos.
Embora os neurônios humanos sejam criações maravilhosas, não poderíamos (e não) projetaríamos circuitos de computação usando os mesmos
métodos lentos. Apesar da engenhosidade dos projetos desenvolvidos por meio da seleção natural, eles são muitas ordens de
magnitude menos capaz do que seremos capazes de projetar. À medida que fazemos a engenharia reversa de nossos corpos e cérebros, vamos
estar em posição de criar sistemas comparáveis que são muito mais duráveis e que operam milhares a milhões de vezes
Mais rápido do que nossos sistemas naturalmente evoluídos. Nossos circuitos eletrônicos já são mais de um milhão de vezes mais rápidos do que um
processos eletroquímicos dos neurônios, e essa velocidade continua a acelerar.
A maior parte da complexidade de um neurônio humano é dedicada a manter suas funções de suporte de vida, não suas informações
capacidades de processamento. Em última análise, seremos capazes de portar nossos processos mentais para um computador mais adequado
substrato. Então nossas mentes não terão que ficar tão pequenas.
Os limites da computação
Página 117
Se um supercomputador mais eficiente trabalha o dia todo para computar um problema de simulação do clima, qual é o
quantidade mínima de energia que deve ser dissipada de acordo com as leis da física? A resposta é na verdade
muito simples de calcular, uma vez que não está relacionado com a quantidade de computação. A resposta é sempre igual a
zero.
45
—E DWARD F REDKIN , P HYSICIST
Já tivemos cinco paradigmas (calculadoras eletromecânicas, computação baseada em relés, tubos de vácuo, discretos).
transistores e circuitos integrados) que proporcionaram um crescimento exponencial do preço-desempenho e das capacidades de
computação. Cada vez que um paradigma atingia seus limites, outro paradigma tomava seu lugar. Já podemos ver os contornos
do sexto paradigma, que trará a computação para a terceira dimensão molecular. Porque a computação é a base
as bases de tudo com o que nos preocupamos, desde a economia ao intelecto humano e à criatividade, podemos muito bem
pergunto: existem limites finais para a capacidade da matéria e da energia de realizar cálculos? Se sim, quais são estes
limites e quanto tempo levará para alcançá-los?
Nossa inteligência humana é baseada em processos computacionais que estamos aprendendo a entender. Vamos
em última análise, multiplicar nossos poderes intelectuais, aplicando e estendendo os métodos da inteligência humana usando o
capacidade muito maior de computação não biológica. Portanto, considerar os limites finais da computação é realmente perguntar:
Qual é o destino de nossa civilização?
Um desafio comum às ideias apresentadas neste livro é que essas tendências exponenciais devem atingir um limite, pois
tendências exponenciais costumam fazer. Quando uma espécie encontra um novo habitat, como no famoso exemplo dos coelhos em
Austrália, seus números crescem exponencialmente por um tempo. Mas eventualmente atinge os limites da capacidade desse ambiente
para apoiá-lo. Certamente, o processamento de informações deve ter restrições semelhantes. Acontece que, sim, existem limites
a computação baseada nas leis da física. Mas estes ainda permitem uma continuação do crescimento exponencial até
a inteligência não biológica é trilhões de trilhões de vezes mais poderosa do que toda a civilização humana hoje,
computadores contemporâneos incluídos.
Um fator importante ao considerar os limites computacionais é a necessidade de energia. A energia necessária por MIPS para
dispositivos de computação vem caindo exponencialmente, conforme mostrado na figura a seguir. 46
[Link] 94/349
10/03/2021 ************************************************* ** *
Página 118
Porém, também sabemos que o número de MIPS em dispositivos de computação vem crescendo exponencialmente. O
até que ponto as melhorias no uso de energia mantiveram o ritmo com a velocidade do processador depende de até que ponto nós
usar processamento paralelo. Um grande número de computadores menos potentes pode funcionar de maneira inerente mais fria porque o
a computação está espalhada por uma área maior. A velocidade do processador está relacionada à tensão, e a energia necessária é
proporcional ao quadrado da tensão. Portanto, executar um processador em uma velocidade mais lenta reduz significativamente a energia
consumo. Se investirmos em mais processamento paralelo em vez de processadores únicos mais rápidos, é viável para energia
consumo e dissipação de calor para acompanhar o crescimento de MIPS por dólar, conforme a figura "Redução em Watts
por MIPS "mostra.
Esta é essencialmente a mesma solução que a evolução biológica desenvolveu no design dos cérebros dos animais. Humano
cérebros usam cerca de cem trilhões de computadores (as conexões interneuronais, onde a maior parte do processamento leva
Lugar, colocar). Mas esses processadores são muito baixos em poder computacional e, portanto, funcionam relativamente frios.
Até recentemente, a Intel enfatizou o desenvolvimento de processadores de chip único cada vez mais rápidos, que foram
funcionando em temperaturas cada vez mais altas. A Intel está mudando gradualmente sua estratégia de paralelização, colocando
vários processadores em um único chip. Veremos a tecnologia de chip se mover nessa direção como uma forma de manter o poder
requisitos e dissipação de calor em cheque. 47
Computação reversível. Em última análise, organizar a computação com processamento paralelo massivo, como é feito no sistema humano
cérebro, por si só não será suficiente para manter os níveis de energia e a dissipação térmica resultante em níveis razoáveis. O
o paradigma atual do computador depende do que é conhecido como computação irreversível, o que significa que somos incapazes em princípio
[Link] 95/349
10/03/2021 ************************************************* ** *
para executar programas de software para trás. Em cada etapa da progressão de um programa, os dados de entrada são descartados -
apagado - e os resultados do cálculo passam para a próxima etapa. Os programas geralmente não retêm todos os intermediários
resultados, pois isso usaria uma grande quantidade de memória desnecessariamente. Este apagamento seletivo de informações de entrada é
particularmente verdadeiro para sistemas de reconhecimento de padrões. Sistemas de visão, por exemplo, sejam humanos ou máquinas, recebem
taxas muito altas de entrada (dos olhos ou sensores visuais), mas produzem saídas relativamente compactas (como a identificação
de padrões reconhecidos). Este ato de apagar dados gera calor e, portanto, requer energia. Quando um pouco de
Página 119
a informação é apagada, essa informação tem que ir para algum lugar. De acordo com as leis da termodinâmica, a parte apagada
é essencialmente liberado no ambiente circundante, aumentando assim sua entropia, que pode ser vista como um
medida de informação (incluindo informação aparentemente desordenada) em um ambiente. Isso resulta em um maior
temperatura para o ambiente (porque a temperatura é uma medida de entropia).
Se, por outro lado, não apagarmos cada bit de informação contido na entrada para cada etapa de um algoritmo, mas
em vez disso, basta movê-lo para outro local, esse bit permanece no computador, não é lançado no ambiente e
Portanto, não gera calor e não requer energia de fora do computador.
Rolf Landauer mostrou em 1961 que operações lógicas reversíveis como NOT (transformando-se um pouco em seu oposto)
poderia ser realizada sem colocar energia ou tirar o calor, mas que operações lógicas irreversíveis, como AND
(gerando bit C, que é 1 se e somente se ambas as entradas A e Bare 1) requerem energia. 48 Em 1973 Charles Bennett
mostrou que qualquer cálculo pode ser executado usando apenas operações lógicas reversíveis. 49 Uma década depois, Ed
Fredkin e Tommaso Toffoli apresentaram uma revisão abrangente da ideia de computação reversível. 50 o
O conceito fundamental é que se você mantiver todos os resultados intermediários e, em seguida, executar o algoritmo para trás quando tiver
Terminado seu cálculo, você termina onde começou, não usou energia e não gerou calor. Pelo caminho,
no entanto, você calculou o resultado do algoritmo.
Quão inteligente é uma rocha? Para avaliar a viabilidade de computação sem energia e sem calor, considere o
computação que ocorre em uma rocha comum. Embora possa parecer que nada de muito está acontecendo dentro de uma rocha,
os aproximadamente 10 25 (dez trilhões de trilhões) de átomos em um quilograma de matéria são, na verdade, extremamente ativos. Apesar do
aparente solidez do objeto, os átomos estão todos em movimento, compartilhando elétrons para frente e para trás, mudando os spins das partículas,
e gerar campos eletromagnéticos que se movem rapidamente. Toda essa atividade representa computação, mesmo que não muito
significativamente organizado.
Já mostramos que os átomos podem armazenar informações em uma densidade maior do que um bit por átomo, como em
sistemas de computação construídos a partir de dispositivos de ressonância magnética nuclear. Pesquisadores da Universidade de Oklahoma armazenaram 1.024
bits nas interações magnéticas dos prótons de uma única molécula contendo dezenove átomos de hidrogênio. 51 Assim, o
o estado da rocha em qualquer momento representa pelo menos 10 27 bits de memória.
Em termos de computação, e apenas considerando as interações eletromagnéticas, existem pelo menos 10 15 mudanças em
Estado por bit por segundo acontecendo dentro de uma rocha de 2,2 libras, o que efetivamente representa cerca de 10 42 (um milhão de trilhões
trilhões de trilhões) de cálculos por segundo. No entanto, a rocha não requer entrada de energia e não gera calor apreciável.
Claro, apesar de toda essa atividade no nível atômico, a rocha não está realizando nenhum trabalho útil além de
talvez atuando como um peso de papel ou uma decoração. A razão para isso é que a estrutura dos átomos na rocha é para
a maior parte efetivamente aleatória. Se, por outro lado, organizamos as partículas de uma maneira mais proposital, nós
poderia ter um computador legal, que consome energia zero, com uma memória de cerca de mil trilhões de trilhões de bits e um
capacidade de processamento de 10 42 operações por segundo, o que é cerca de dez trilhões de vezes mais poderoso do que todos os humanos
cérebros na Terra, mesmo se usarmos a estimativa mais conservadora (mais alta) de 10 19 cps. 52
Ed Fredkin demonstrou que nem mesmo precisamos nos preocupar em executar algoritmos ao contrário depois de obter um resultado. 53
Fredkin apresentou vários projetos para portas lógicas reversíveis que realizam as reversões à medida que calculam e que são
universal, o que significa que a computação de uso geral pode ser construída a partir deles. 54 Fredkin passa a mostrar que o
eficiência de um computador construído a partir de portas lógicas reversíveis pode ser projetada para ser muito próxima (pelo menos 99 por cento) do
eficiência daqueles construídos a partir de portões irreversíveis. Ele escreve:
É possível ... implementar ... modelos convencionais de computador que têm a distinção de que o básico
os componentes são microscopicamente. reversível. Isso significa que a operação macroscópica do computador é
também reversível. Esse fato nos permite responder à ... questão ... "o que é necessário para um computador ser
maximamente eficiente? "A resposta é que se o computador for construído a partir de microscopicamente reversível
componentes, então pode ser perfeitamente eficiente. Quanta energia um computador perfeitamente eficiente precisa para
Página 120
[Link] 96/349
10/03/2021 ************************************************* ** *
dissipar para computar algo? A resposta é que o computador não precisa dissipar nenhum
energia. 55
A lógica reversível já foi demonstrada e mostra as reduções esperadas na entrada de energia e calor
dissipação. 56 As portas lógicas reversíveis de Fredkin respondem a um desafio-chave para a ideia de computação reversível:
requerem um estilo diferente de programação. Ele argumenta que podemos, de fato, construir a lógica normal e a memória inteiramente
de portas lógicas reversíveis, que permitirão o uso de métodos convencionais de desenvolvimento de software existentes.
É difícil exagerar o significado desse insight. Uma observação importante a respeito da Singularidade é que
os processos de informação - computação - acabarão por conduzir tudo o que é importante. Esta base primária para
a tecnologia futura, portanto, parece não exigir energia.
A realidade prática é um pouco mais complicada. Se realmente queremos descobrir os resultados de um cálculo -
ou seja, para receber a saída de um computador - o processo de copiar a resposta e transmiti-la fora do
computador é um processo irreversível, que gera calor para cada bit transmitido. No entanto, para a maioria das aplicações de
Juros, a quantidade de computação necessária para a execução de um algoritmo excede em muito a computação necessária para
comunique as respostas finais, de forma que o último não mude de forma apreciável a equação de energia.
No entanto, devido aos efeitos térmicos e quânticos essencialmente aleatórios, as operações lógicas têm uma taxa de erro inerente.
Podemos superar erros usando códigos de detecção e correção de erros, mas cada vez que corrigimos um pouco, a operação não é
reversível, o que significa que requer energia e gera calor. Geralmente, as taxas de erro são baixas. Mas mesmo se ocorrerem erros
à taxa de, digamos, uma para cada 10 10 operações, só conseguimos reduzir as necessidades de energia por um fator de
10 10 , não na eliminação total da dissipação de energia.
À medida que consideramos os limites do cálculo, a questão da taxa de erro torna-se um problema de design significativo. Certo
métodos de aumentar a taxa computacional, como aumentar a frequência da oscilação das partículas, também aumentam
taxas de erro, portanto, isso coloca limites naturais na capacidade de realizar cálculos usando matéria e energia.
Outra tendência importante com relevância aqui será o afastamento das baterias convencionais em direção ao combustível minúsculo
células (dispositivos que armazenam energia em produtos químicos, como formas de hidrogênio, que é combinada com o oxigênio disponível). Combustível
as células já estão sendo construídas usando a tecnologia MEMS (sistemas mecânicos microeletrônicos). 57 À medida que avançamos
em direção à computação molecular tridimensional com recursos em nanoescala, recursos de energia na forma de nano-combustível
As células serão amplamente distribuídas por todo o meio de computação entre os processadores massivamente paralelos. Vamos
discuta as futuras tecnologias de energia baseadas em nanotecnologia no capítulo 5.
Os limites da nanocomputação. Mesmo com as restrições que discutimos, os limites finais dos computadores são
profundamente alto. Com base no trabalho da Universidade da Califórnia em Berkeley, Professor Hans Bremermann e
o teórico da nanotecnologia Robert Freitas, o professor do MIT Seth Lloyd estimou o máximo computacional
capacidade, de acordo com as leis conhecidas da física, de um computador pesando um quilo e ocupando um litro de
volume - aproximadamente do tamanho e peso de um pequeno laptop - o que ele chama de "laptop definitivo". 58 O potencial
quantidade de computação aumenta com a energia disponível. Podemos entender a ligação entre energia e computação
capacidade da seguinte forma. A energia em uma quantidade de matéria é a energia associada a cada átomo (e subatômicas
partícula). Portanto, quanto mais átomos, mais energia. Conforme discutido acima, cada átomo pode ser potencialmente usado para computação.
Portanto, quanto mais átomos, mais computação. A energia de cada átomo ou partícula cresce com a frequência de sua
movimento: quanto mais movimento, mais energia. A mesma relação existe para computação potencial: quanto maior
a frequência do movimento, mais computação cada componente (que pode ser um átomo) pode realizar. (Nós vemos isso
Em chips contemporâneos: quanto mais alta a frequência do chip, maior sua velocidade computacional.)
Portanto, há uma relação direta e proporcional entre a energia de um objeto e seu potencial de desempenho
computação. A energia potencial em um quilograma de matéria é muito grande, como sabemos da equação de Einstein E = mc 2 ,
A velocidade da luz ao quadrado é um número muito grande: aproximadamente 10 17 metros 2 / segundo 2 . O potencial da matéria para
o cálculo também é governado por um número muito pequeno, a constante de Planck: 6,6 10 -34 joule-segundos (um joule é uma medida de
energia). Esta é a menor escala em que podemos aplicar energia para computação. Obtemos o limite teórico de um
Página 121
Objeto para realizar cálculos dividindo a energia total (a energia média de cada átomo ou partícula vezes o
número de tais partículas) pela constante de Planck.
Lloyd mostra como a capacidade potencial de computação de um quilograma de matéria é igual a pi vezes a energia dividida por
A constante de Planck. Uma vez que a energia é um número tão grande e a constante de Planck é tão pequena, esta equação gera um
Número extremamente grande: cerca de 5 10 50 operações por segundo. 59
Se relacionarmos esse número com a estimativa mais conservadora da capacidade do cérebro humano (10 19 cps e 10 10 humanos),
Representa o equivalente a cerca de cinco bilhões de trilhões de civilizações humanas. 60 Se usarmos a figura de 10 16 cps que eu
acredito que será suficiente para a emulação funcional da inteligência humana, o laptop definitivo funcionaria no
poder cerebral equivalente a cinco trilhões de trilhões de civilizações humanas. 61 Esse laptop poderia executar o equivalente a todos
pensamento humano nos últimos dez mil anos (ou seja, dez bilhões de cérebros humanos operando por dez mil anos) em
um décimo milésimo de nanossegundo. 62
[Link] 97/349
10/03/2021 ************************************************* ** *
Novamente, algumas advertências são necessárias. Converter toda a massa do nosso laptop de 2,2 libras em energia é essencialmente
o que acontece em uma explosão termonuclear. Claro, não queremos que o laptop exploda, mas que fique dentro de si
dimensão do litro. Portanto, isso exigirá uma embalagem cuidadosa, para dizer o mínimo. Ao analisar a entropia máxima
(graus de liberdade representados pelo estado de todas as partículas) em tal dispositivo, Lloyd mostra que tal computador
teria uma capacidade de memória teórica de 10 31 bits. É difícil imaginar tecnologias que percorram todo o caminho
para alcançar esses limites. Mas podemos prontamente imaginar tecnologias que chegam razoavelmente perto de fazer isso. Enquanto o
O projeto da Universidade de Oklahoma mostra que já demonstramos a capacidade de armazenar pelo menos cinquenta bits de informação
por átomo (embora apenas em um pequeno número de átomos, até agora). Armazenando 10 27 bits de memória nos 10 25 átomos em um
quilograma de matéria deve ser eventualmente alcançável.
Mas porque muitas propriedades de cada átomo podem ser exploradas para armazenar informações - como a posição precisa,
spin e estado quântico de todas as suas partículas - provavelmente podemos fazer algo melhor do que 10 27 bits. Neuro cientista
Anders Sandberg estima a capacidade potencial de armazenamento de um átomo de hidrogênio em cerca de quatro milhões de bits. Esses
densidades ainda não foram demonstradas, no entanto, usaremos a estimativa mais conservadora. 63 Como discutido acima,
10 42 cálculos por segundo podem ser alcançados sem produzir calor significativo. Ao implantar totalmente reversível
técnicas de computação, usando projetos que geram baixos níveis de erros e permitindo quantidades razoáveis de energia
dissipação, devemos acabar em algo entre 10 42 e 10 50 cálculos por segundo.
O terreno de design entre esses dois limites é complexo. Examinando os problemas técnicos que surgem à medida que avançamos
de 10 42 a 10 50 está além do escopo deste capítulo. Devemos ter em mente, no entanto, que a maneira como isso vai se desenrolar
não é começando com o limite final de 10 50 e retrocedendo com base em várias considerações práticas.
Em vez disso, a tecnologia continuará a crescer, sempre usando suas mais recentes proezas para avançar para o próximo nível. Então, uma vez que nós
chegar a uma civilização com 10 42 cps (para cada 2,2 libras), os cientistas e engenheiros daquela época usarão seus
inteligência não biológica essencialmente vasta para descobrir como obter 10 43 , depois 10 44 e assim por diante. Minha expectativa é que nós
chegará muito perto dos limites finais.
Mesmo a 10 42 cps, um "computador portátil definitivo" de 2,2 libras seria capaz de executar o equivalente a todos os humanos
pensamento nos últimos dez mil anos (presumido em dez bilhões de cérebros humanos por dez mil anos) em dez
microssegundos. 64 Se examinarmos o gráfico "Crescimento exponencial da computação" (p. 70), vemos que esta quantidade de
estima-se que a computação esteja disponível por mil dólares em 2080.
Um design mais conservador, mas atraente para um computador reversível maciçamente paralelo é o patenteado por Eric Drexler
projeto de nanocomputador, que é inteiramente mecânico. 65 Computações são realizadas por meio da manipulação de hastes em nanoescala,
que são efetivamente acionados por mola. Após cada cálculo, as hastes contendo valores intermediários voltam a seus
Posições originais, implementando assim o cálculo reverso. O dispositivo tem um trilhão (10 12 ) de processadores e
Fornece uma taxa geral de 10 21 cps, o suficiente para simular cem mil cérebros humanos em um centímetro cúbico.
Definindo uma data para a singularidade. Um limiar mais modesto, mas ainda profundo, será alcançado muito antes. No
no início de 2030, mil dólares em computação vão comprar cerca de 10 17 cps (provavelmente cerca de 10 20 cps usando
ASICs e coleta de computação distribuída pela Internet). Hoje, gastamos mais de $ 10 11 ($ 100 bilhões) em
Página 122
computação em um ano, que aumentará conservadoramente para $ 10 12 ($ 1 trilhão) em 2030. Portanto, estaremos produzindo cerca de 10 26
a 10 29 cps de computação não biológica por ano no início de 2030. Isso é aproximadamente igual à nossa estimativa para o
capacidade de toda a inteligência humana biológica viva.
Mesmo que seja igual em capacidade aos nossos próprios cérebros, esta porção não biológica de nossa inteligência será mais
poderoso porque vai combinar os poderes de reconhecimento de padrões da inteligência humana com a memória e habilidade
Capacidade de compartilhamento e precisão de memória de máquinas. A porção não biológica sempre operará na capacidade de pico,
o que está longe de ser o caso para a humanidade biológica hoje; os 10 26 cps representados pela civilização humana biológica
hoje é mal utilizado.
Este estado de computação no início de 2030 não representará a Singularidade, no entanto, porque ainda não
correspondem a uma expansão profunda de nossa inteligência. Em meados da década de 2040, no entanto, aquele valor de mil dólares
de computação será igual a 10 26 cps, então a inteligência criada por ano (a um custo total de cerca de US $ 10 12 ) será
cerca de um bilhão de vezes mais poderoso do que toda a inteligência humana hoje. 66
Eu marquei a data para Isso vai de fato representam uma profunda mudança, e é por essa razão que eu definir o
a Singularidade - data para a Singularidade - representando uma transformação profunda e disruptiva em
representando um capacidade humana - como 2045.
profundo e Apesar da clara predominância de inteligência não biológica em meados da década de 2040,
disruptivo trans- a nossa ainda será uma civilização humana. Vamos transcender a biologia, mas não o nosso
formação em humanidade. Voltarei a esse assunto no capítulo 7.
capacidade humana - Voltando aos limites da computação de acordo com a física, as estimativas acima
como 2045. foram expressos em termos de computadores do tamanho de um laptop porque esse é um fator de forma familiar
O não biológico hoje. Na segunda década deste século, no entanto, a maior parte da computação não será
inteligência organizado em tais dispositivos retangulares, mas será altamente distribuído em todo o
criado naquele ano ambiente. A computação estará em todo lugar: nas paredes, em nossos móveis, em nosso
será um bilhão roupas, e em nossos corpos e cérebros.
vezes mais E, claro, a civilização humana não se limitará a computar com apenas alguns
[Link] 98/349
10/03/2021 ************************************************* ** *
poderoso do que todos libras de matéria. No capítulo 6, examinaremos o potencial computacional de um planeta
inteligência humana planeta de tamanho e computadores na escala dos sistemas solares, das galáxias e de todo o
hoje. universo conhecido. Como veremos, a quantidade de tempo necessária para nosso humano
civilização para alcançar escalas de computação e inteligência que vão além do nosso planeta
e no universo pode ser muito mais curto do que você imagina. Eu marquei a data para o
Singularidade - representando uma transformação profunda e disruptiva na capacidade humana - como em 2045
A inteligência criada naquele ano será um bilhão de vezes mais poderosa do que toda a inteligência humana hoje.
Memória e eficiência computacional: A Rock Versus a Human Brain. Com os limites da matéria e energia para
Para realizar a computação em mente, duas métricas úteis são a eficiência da memória e a eficiência computacional de um objeto.
Eles são definidos como as frações de memória e computação que ocorrem em um objeto que são realmente úteis. Além disso,
Precisamos considerar o princípio de equivalência: mesmo que o cálculo seja útil, se um método mais simples produz equivalente
resultados, então devemos avaliar o cálculo em relação ao algoritmo mais simples. Em outras palavras, se dois métodos alcançam
o mesmo resultado, mas um usa mais computação do que o outro, o método mais computacionalmente intensivo será
considerado usar apenas a quantidade de cálculo do método menos intensivo. 67
O objetivo dessas comparações é avaliar o quão longe a evolução biológica tem sido capaz de ir dos sistemas
com essencialmente nenhuma inteligência (ou seja, uma pedra comum, que não executa nenhum cálculo útil) para a capacidade final
de matéria para realizar cálculos intencionais. A evolução biológica nos levou a parte do caminho, e a evolução tecnológica
(o que, como indiquei anteriormente, representa uma continuação da evolução biológica) nos levará muito perto daqueles
limites.
Lembre-se de que uma rocha de 2,2 libras tem cerca de 10 27 bits de informação codificada no estado de seus átomos e
cerca de 10 42 cps representado pela atividade de suas partículas. Já que estamos falando de uma pedra comum, assumindo que
Página 123
Sua superfície poderia armazenar cerca de mil bits é uma estimativa talvez arbitrária, mas generosa. 68 Isso representa 10-24 de
sua capacidade teórica, ou uma eficiência de memória de 10--24 . 69
Também podemos usar uma pedra para fazer cálculos. Por exemplo, ao deixar cair a pedra de uma determinada altura, podemos
calcule a quantidade de tempo que leva para soltar um objeto daquela altura. Claro, isso representa muito pouco
computação: talvez 1 cps, o que significa que sua eficiência computacional é 10-42 . 70
Em comparação, o que podemos dizer sobre a eficiência do cérebro humano? No início deste capítulo, discutimos como
Cada uma das aproximadamente 10 14 conexões interneuronais pode armazenar cerca de 10 4 bits na conexão
concentrações de neurotransmissores e não linearidades sinápticas e dendríticas (formas específicas), para um total de 10 18 bits. O
cérebro humano pesa quase o mesmo que nossa pedra (na verdade, mais perto de 3 libras do que 2,2, mas como estamos lidando com
ordens de magnitude, as medidas são próximas o suficiente). Funciona mais quente do que uma pedra fria, mas ainda podemos usar o
Mesma estimativa de cerca de 10 27 bits de capacidade de memória teórica (estimando que podemos armazenar um bit em cada átomo).
Isso resulta em uma eficiência de memória de 10--9 . No entanto, pelo princípio de equivalência, não devemos usar o cérebro
métodos de codificação ineficientes para classificar sua eficiência de memória. Usando nossa estimativa de memória funcional acima de 10 13 bits, nós
obtenha uma eficiência de memória de 10-14 . Isso é cerca de meio caminho entre a pedra e o laptop frio final em um logarítmico
escala. No entanto, embora a tecnologia avance exponencialmente, nossas experiências são em um mundo linear e em um
escala linear, o cérebro humano está muito mais perto da pedra do que do computador frio final.
Então, qual é a eficiência computacional do cérebro? Novamente, precisamos considerar o princípio de equivalência e usar o
Estimativa de 10 16 cps necessários para emular a funcionalidade do cérebro, em vez da estimativa mais alta (10 19 cps) necessária para
emular todas as não linearidades em cada neurônio. Com a capacidade teórica dos átomos do cérebro estimada em 10 42
cps, isso nos dá uma eficiência computacional de 10--26 . Novamente, isso está mais perto de uma pedra do que do laptop, mesmo em um
escala logarítmica.
Nossos cérebros evoluíram significativamente em sua memória e eficiência computacional a partir de objetos pré-biologia
como pedras. Mas claramente temos muitas ordens de magnitude de melhoria para aproveitar durante o primeiro
metade deste século.
Indo além do máximo: Pico- e Femtotechnology e curvando a velocidade da luz. Os limites de cerca
10 42 cps para um computador frio de um quilograma e um litro e cerca de 10 50 para um (muito) quente são baseados em computação com
átomos. Mas os limites nem sempre são o que parecem. A nova compreensão científica tem uma maneira de ultrapassar limites aparentes
a parte, de lado. Como um dos muitos exemplos, no início da história da aviação, uma análise de consenso dos limites do jato
a propulsão aparentemente demonstrou que os aviões a jato eram inviáveis. 71
Os limites que discuti acima representam os limites da nanotecnologia com base em nosso entendimento atual. Mas o que
Picotecnologia Sobre, Na rodada medida de trilionésimos (10 -12 ) de um metro de, e Femtotecnologia, de 10 escalas a -15 de um metro? No
nessas escalas, exigiríamos computação com partículas subatômicas. Com tamanho tão menor, vem o potencial para
velocidade e densidade ainda maiores.
Temos pelo menos várias tecnologias de picoscale de adoção muito precoce. Cientistas alemães criaram um sistema atômico
microscópio de força (AFM) que pode resolver características de um átomo que são picometros única setenta e sete em todo 72 Um mesmo
A tecnologia de alta resolução foi criada por cientistas da Universidade da Califórnia em Santa Bárbara, que
desenvolveu um detector de medição extremamente sensível com um feixe físico feito de cristal de arseneto de gálio e um
sistema de detecção que pode medir uma flexão do feixe de apenas um picômetro. O dispositivo destina-se a fornecer um
[Link] 99/349
10/03/2021 ************************************************* ** *
Página 124
teorias concorrentes para o comportamento da matéria e energia nessas escalas são baseadas em modelos matemáticos que são
com base em transformações computáveis. Muitas das transformações na física fornecem a base para universais
computação (isto é, transformações a partir das quais podemos construir computadores de uso geral), e pode ser que
o comportamento na faixa do pico e do femtômetro também o fará.
Claro, mesmo que os mecanismos básicos da matéria nessas faixas proporcionem computação universal em teoria, nós
ainda teria que conceber a engenharia necessária para criar um grande número de elementos de computação e aprender como
controlá-los. Estes são semelhantes aos desafios em que estamos agora fazendo progresso rápido no campo de
nanotecnologia. Neste momento, temos que considerar a viabilidade de pico- e femtocomputing como especulativa. Mas
A nanocomputação fornecerá níveis massivos de inteligência, então se for possível fazer, nossa inteligência futura será
Provavelmente descobrirá os processos necessários. O experimento mental que devemos fazer não é se os humanos como nós
conhecê-los hoje serão capazes de desenvolver tecnologias de pico e femtocomputação, mas se o vasto
inteligência da futura inteligência baseada em nanotecnologia (que será trilhões de trilhões de vezes mais capaz do que
inteligência humana biológica contemporânea) será capaz de reproduzir esses projetos. Embora eu acredite que seja provável
que nossa futura inteligência baseada em nanotecnologia será capaz de projetar computação em escalas mais finas do que
nanotecnologia, as projeções neste livro a respeito da Singularidade não dependem dessa especulação.
Além de tornar a computação menor, podemos torná-la maior - ou seja, podemos replicar esses muito pequenos
dispositivos em grande escala. Com a nanotecnologia em grande escala, os recursos de computação podem ser auto-replicáveis e
Assim, pode rapidamente converter massa e energia em uma forma inteligente. No entanto, corremos contra a velocidade da luz,
porque a matéria no universo está espalhada por vastas distâncias.
Como discutiremos mais tarde, há pelo menos sugestões de que a velocidade da luz pode não ser imutável. Físicos
Steve Lamoreaux e Justin Torgerson, do Laboratório Nacional de Los Alamos, analisaram dados de um antigo natural
Reator nuclear que há dois bilhões de anos produziu uma reação de fissão que durou várias centenas de milhares de anos no que é
agora a África Ocidental. 75 Examinar isótopos radioativos que sobraram do reator e compará-los aos isótopos de
Reações nucleares semelhantes hoje, eles determinaram que a constante da física alfa (também chamada de estrutura fina
constante), que determina a intensidade da força eletromagnética, aparentemente mudou ao longo de dois bilhões de anos.
Isso é de grande importância para o mundo da física, porque a velocidade da luz é inversamente proporcional a alfa, e
ambos foram considerados constantes imutáveis. Alfa parece ter diminuído 4,5 partes em 10 8 . Se
confirmado, isso implicaria que a velocidade da luz aumentou.
É claro que esses resultados exploratórios precisarão ser verificados com cuidado. Se verdadeiros, eles podem ter grande importância para
o futuro da nossa civilização. Se a velocidade da luz aumentou, presumivelmente não foi apenas como resultado do
passagem do tempo, mas porque certas condições mudaram. Se a velocidade da luz mudou devido à mudança
circunstâncias, que rachaduras abrem a porta apenas o suficiente para os vastos poderes de nossa futura inteligência e tecnologia para
balançar a porta totalmente aberta. Esse é o tipo de conhecimento científico que os tecnólogos podem explorar. Engenharia humana
muitas vezes adquire um efeito natural, frequentemente sutil, e o controla com o objetivo de alavancá-lo e ampliá-lo bastante.
Mesmo se acharmos difícil aumentar significativamente a velocidade da luz em longas distâncias do espaço, fazê-lo
Dentro dos pequenos limites de um dispositivo de computação também teria consequências importantes para estender o potencial
para computação. A velocidade da luz é um dos limites que restringem os dispositivos de computação até hoje, portanto, a capacidade de
aumentá-lo iria estender ainda mais os limites de computação. Exploraremos várias outras abordagens intrigantes para
possivelmente aumentando ou contornando a velocidade da luz no capítulo 6. Expandir a velocidade da luz é, obviamente,
especulativo hoje, e nenhuma das análises subjacentes à nossa expectativa da Singularidade depende dessa possibilidade.
Voltando no tempo. Outra possibilidade intrigante - e altamente especulativa - é enviar um processo computacional
de volta no tempo através de um "buraco de minhoca" no espaço-tempo. O físico teórico Todd Brun, do Institute for Advanced
Estudos em Princeton analisaram a possibilidade de computação usando o que ele chama de "curva fechada do tempo" (CTC).
De acordo com Brun, os CTCs poderiam "enviar informações (como o resultado de cálculos) para sua própria luz do passado
cones. " 76
[Link] 100/349
10/03/2021 ************************************************* ** *
Página 125
Brun não fornece um projeto para tal dispositivo, mas estabelece que tal sistema é consistente com as leis de
física. Seu computador de viagem no tempo também não cria o "paradoxo do avô", frequentemente citado em discussões sobre o tempo
viagem. Este conhecido paradoxo indica que se a pessoa A voltar no tempo, ela poderia matar seu avô, causando A
não existir, resultando em seu avô não ser morto por ele, então A existiria e assim poderia voltar e matar seu
avô e assim por diante, ad infinitum.
O processo computacional de alongamento de tempo de Brun não parece introduzir este problema porque não afeta
o passado. Ele produz uma resposta determinada e inequívoca no presente a uma questão colocada. A questão deve
tem uma resposta clara, e a resposta não é apresentada até que a pergunta seja feita, embora o processo para determinar
a resposta pode ocorrer antes que a pergunta seja feita usando o CTC. Por outro lado, o processo pode ocorrer após
a pergunta é feita e, em seguida, use um CTC para trazer a resposta de volta ao presente (mas não antes de a pergunta ser
perguntou, porque isso introduziria o paradoxo do avô). Pode muito bem haver barreiras fundamentais (ou
limitações) a tal processo que ainda não entendemos, mas essas barreiras ainda não foram identificadas. Se viável,
iria expandir muito o potencial da computação local. Novamente, todas as minhas estimativas de capacidades computacionais e de
as capacidades da Singularidade não dependem da conjectura provisória de Brun.
E RIC D REXLER : Não sei, Ray. Estou pessimista quanto às perspectivas da picotecnologia. Com as partículas estáveis nós
sei de, eu não vejo como pode haver estrutura de picoscale sem as enormes pressões encontradas em um colapso
estrela - uma anã branca ou uma estrela de nêutrons - e então você obteria um pedaço sólido de material como um metal, mas um milhão
vezes mais denso. Isso não parece muito útil, mesmo se fosse possível fazê-lo em nosso sistema solar. Se física
Incluindo uma partícula estável como um elétron, mas cem vezes mais massiva, seria uma história diferente, mas
não sabemos de um.
R AY : Nós manipulamos partículas subatômicas hoje com aceleradores que ficam significativamente aquém das condições em um
Estrêla de Neutróns. Além disso, manipulamos partículas subatômicas como os elétrons hoje com dispositivos de mesa.
Cientistas recentemente capturaram e pararam um fóton morto em seu caminho.
E RIC : Sim, mas que tipo de manipulação? Se contarmos a manipulação de pequenas partículas, então toda a tecnologia já está
picotecnologia, porque toda matéria é feita de partículas subatômicas. Esmagamento de partículas em aceleradores
Produz detritos, não máquinas ou circuitos.
R AY : Eu não disse que resolvemos os problemas conceituais da picotecnologia. Eu tenho você planejado para fazer isso em 2072.
E RIC : Oh, ótimo, então vejo que você me faz viver muito tempo.
R AY : Sim, bem, se você se mantiver na vanguarda da tecnologia e dos insights médicos e de saúde, enquanto estou tentando
sim, vejo que você está em boa forma nessa época.
M OLLY 2104: Sim, alguns de vocês, baby boomers, conseguiram sobreviver . Mas a maioria não se importava com as oportunidades
em 2004 para estender a mortalidade humana por tempo suficiente para tirar vantagem da revolução da biotecnologia, que atingiu seu
passo uma década depois, seguido pela nanotecnologia uma década depois disso.
M OLLY 2004: Então, Molly 2104, você deve ser bastante, considerando que mil dólares de computação em
2080 pode realizar o equivalente a dez bilhões de cérebros humanos pensando por dez mil anos em questão de dez
microssegundos. Isso provavelmente terá progredido ainda mais em 2104, e presumo que você tenha acesso a
mais de mil dólares em computação.
M OLLY 2104: Na verdade, milhões de dólares em média - bilhões quando eu preciso.
M OLLY 2004: Isso é muito difícil de imaginar.
M OLLY 2104: Sim, bem, acho que sou meio inteligente quando preciso ser.
M OLLY 2004: Você não parece tão brilhante, na verdade.
M OLLY 2104: Estou tentando me relacionar no seu nível.
M OLLY 2004: Agora, espere um segundo, Srta. Molly do futuro ....
G EORGE 2048: Senhoras, por favor, vocês duas são muito envolventes.
M OLLY 2004: Sim, bem, diga isso à minha contraparte aqui - ela sente que é um milhão de vezes mais capaz do que eu.
Página 126
G EORGE 2048: Ela é o seu futuro, você sabe. De qualquer forma, sempre achei que havia algo especial sobre um biológico
mulher.
MOLLY 2104: Sim, o que você sabe sobre mulheres biológicas de qualquer maneira? G EORGE 2048: Eu li muito
sobre isso e envolvido em algumas simulações muito precisas.
M OLLY 2004: Me ocorre que talvez vocês dois estejam perdendo algo que não conhecem G EORGE 2048: Eu não
veja como isso é possível.
M OLLY 2104: Definitivamente não.
M OLLY 2004: Não achei que você faria. Mas há uma coisa que entendo que você pode fazer e que acho legal.
M OLLY 2104: Apenas um? M OLLY 2004: Um em que estou pensando, de qualquer maneira. Você pode fundir seu pensamento com alguém
[Link] 101/349
10/03/2021 ************************************************* ** *
outra coisa e ainda manter sua identidade separada ao mesmo tempo.
MOLLY 2104: Se a situação - e a pessoa - estiver certa, então, sim, é uma coisa muito sublime de se fazer.
M OLLY 2004: Gosta de se apaixonar?
MOLLY 2104: Como estar apaixonada. É a melhor maneira de compartilhar.
G EORGE 2048: Acho que você vai nessa, Molly 2004.
M OLLY 2104: Você deve saber, George, já que foi a primeira pessoa com quem fiz isso.
Página 127
CAPÍTULO QUATRO
Existem boas razões para acreditar que estamos em um ponto de inflexão e que isso será possível no próximo
duas décadas para formular uma compreensão significativa da função cerebral. Esta visão otimista é baseada em
várias tendências mensuráveis e uma observação simples que foi comprovada repetidamente na história da
ciência: os avanços científicos são possibilitados por um avanço tecnológico que nos permite ver o que não fomos
capaz de ver antes. Por volta da virada do século vinte e um, passamos por um ponto de inflexão detectável em ambos
conhecimentos de neurociência e poder de computação. Pela primeira vez na história, sabemos coletivamente o suficiente
sobre nossos próprios cérebros, e desenvolvemos uma tecnologia de computação tão avançada, que agora podemos seriamente
empreender a construção de um modelo verificável, em tempo real e de alta resolução de partes significativas de nosso
inteligência.
1
-L LOYD W ATTS , Neuroscientist
Agora, pela primeira vez, estamos observando o cérebro em funcionamento de maneira global com tanta clareza que deveríamos
ser capaz de descobrir os programas gerais por trás de seus poderes magníficos.
2
[Link] 102/349
10/03/2021 ************************************************* ** *
-JG T Aylor , B. H ORWITZ , KJ F Riston , Neuroscientists
O cérebro é bom: é uma prova de existência de que um certo arranjo da matéria pode produzir mente, realizar
raciocínio inteligente, reconhecimento de padrões, aprendizagem e muitas outras tarefas importantes de interesse da engenharia.
Portanto, podemos aprender a construir novos sistemas pegando emprestadas idéias do cérebro .... O cérebro é ruim: é um
sistema evoluído e confuso, onde muitas interações acontecem por causa de contingências evolutivas. ... No
por outro lado, também deve ser robusto (uma vez que podemos sobreviver com ele) e ser capaz de suportar variações bastante importantes
e insultos ambientais, então o insight verdadeiramente valioso do cérebro pode ser como criar resilientes
sistemas complexos que se auto-organizam bem ... As interações dentro de um neurônio são complexas, mas no próximo nível
os neurônios parecem ser objetos um tanto simples que podem ser colocados juntos de forma flexível em redes. O cortical
as redes são uma verdadeira bagunça localmente, mas, novamente, no próximo nível, a conectividade não é tão complexa. Seria
Provavelmente essa evolução produziu uma série de módulos ou temas repetidos que estão sendo reutilizados, e quando
nós os entendemos e suas interações, podemos fazer algo semelhante.
Página 128
ele
T combinação de inteligência de nível humano com a superioridade inerente de um computador em velocidade, precisão e
capacidade de compartilhamento de memória será formidável. Até o momento, no entanto, a maioria das pesquisas e desenvolvimento de IA tem
utilizou métodos de engenharia que não são necessariamente baseados em como o cérebro humano funciona, para o
razão simples de que não temos as ferramentas precisas necessárias para desenvolver modelos detalhados de cognição humana.
Nossa capacidade de fazer engenharia reversa do cérebro - para ver dentro, modelá-lo e simular suas regiões - está crescendo
exponencialmente. No final das contas, entenderemos os princípios de operação subjacentes a toda a gama de nosso próprio pensamento,
Conhecimento que nos fornecerá procedimentos poderosos para o desenvolvimento de software de máquinas inteligentes. Vamos
modificar, refinar e estender essas técnicas à medida que as aplicamos a tecnologias computacionais que são muito mais poderosas
do que o processamento eletroquímico que ocorre nos neurônios biológicos. Um dos principais benefícios deste grande projeto será
os insights precisos que ele oferece sobre nós mesmos. Também ganharemos novas maneiras poderosas de tratar problemas neurológicos como
como Alzheimer, acidente vascular cerebral, doença de Parkinson e deficiências sensoriais e, finalmente, será capaz de estender amplamente nossa
inteligência.
Novas ferramentas de imagem cerebral e modelagem. O primeiro passo na engenharia reversa do cérebro é perscrutar o cérebro para
determinar como funciona. Até agora, nossas ferramentas para fazer isso têm sido grosseiras, mas agora estão mudando, como uma importante
número de novas tecnologias de digitalização apresentam resolução espacial e temporal muito melhorada, preço-desempenho,
e largura de banda. Simultaneamente, estamos acumulando rapidamente dados sobre as características precisas e dinâmica do
partes e sistemas constituintes do cérebro, que vão desde sinapses individuais a grandes regiões, como o cerebelo,
que compreende mais da metade dos neurônios do cérebro. Extensos bancos de dados estão catalogando metodicamente nossos
conhecimento do cérebro em crescimento exponencial. 3
Os pesquisadores também mostraram que podem compreender e aplicar rapidamente essas informações construindo modelos e
simulações de trabalho. Essas simulações de regiões do cérebro são baseadas nos princípios matemáticos da complexidade
teoria e computação caótica e já estão fornecendo resultados que se aproximam de experimentos realizados em
cérebros humanos e animais.
Conforme observado no capítulo 2, o poder das ferramentas de digitalização e computacionais necessárias para a tarefa de reversão
a engenharia do cérebro está se acelerando, semelhante à aceleração da tecnologia que tornou o projeto do genoma viável.
Quando chegarmos à era dos nanobots (consulte "Digitalizando usando nanobots" na pág. 163), seremos capazes de digitalizar de dentro do
cérebro com resolução espacial e temporal extraordinariamente alta. 4 Não existem barreiras inerentes à nossa capacidade de reverter
projetar os princípios operacionais da inteligência humana e replicar essas capacidades nos mais poderosos
substratos computacionais que estarão disponíveis nas próximas décadas. O cérebro humano é uma hierarquia complexa de
sistemas complexos, mas não representam um nível de complexidade além do que já somos capazes de lidar.
O software do cérebro. O desempenho de preço de computação e comunicação está dobrando a cada ano. Como nós
visto anteriormente, a capacidade computacional necessária para emular a inteligência humana estará disponível em menos de dois
décadas. 5 A principal suposição subjacente à expectativa da Singularidade é que médiuns não biológicos serão
capaz de emular a riqueza, sutileza e profundidade do pensamento humano. Mas alcançar o hardware computacional
capacidade de um único cérebro humano - ou mesmo da inteligência coletiva de aldeias e nações - não será automaticamente
[Link] 103/349
10/03/2021 ************************************************* ** *
produzir níveis humanos de capacidade. (Por "níveis humanos" eu incluo todas as formas diversas e sutis como os humanos são
inteligente, incluindo aptidão musical e artística, criatividade, movimento físico pelo mundo e compreensão
e responder apropriadamente às emoções.) A capacidade computacional do hardware é necessária, mas não suficiente.
Compreender a organização e o conteúdo desses recursos - o software de inteligência - é ainda mais crítico e
é o objetivo do empreendimento de engenharia reversa do cérebro.
Depois que um computador atinge um nível de inteligência humano, ele necessariamente vai ultrapassá-lo. Uma das principais vantagens de
inteligência não biológica é que as máquinas podem facilmente compartilhar seu conhecimento. Se você aprender francês ou ler Guerra e
Paz , você não pode baixar prontamente esse aprendizado para mim, pois eu tenho que adquirir essa bolsa da mesma maneira meticulosa
que você fez. Não consigo (ainda) acessar ou transmitir rapidamente o seu conhecimento, que está embutido em um vasto padrão de
Página 129
concentrações de neurotransmissores (níveis de substâncias químicas nas sinapses que permitem que um neurônio influencie outro) e
conexões interneuronais (porções dos neurônios chamadas axônios e dendritos que conectam os neurônios).
Mas considere o caso da inteligência de uma máquina. Em uma de minhas empresas, passamos anos ensinando uma pesquisa
computador como reconhecer a fala humana contínua, usando software de reconhecimento de padrões. 6 Nós o expusemos a milhares
de horas de fala gravada, corrigiu seus erros e pacientemente melhorou seu desempenho treinando seu self "caótico"
algoritmos (métodos que organizam modificam suas próprias regras, com base em processos que usam inicial semi-aleatória
informações e com resultados que não são totalmente previsíveis). Finalmente, o computador tornou-se bastante hábil em reconhecer
Fala. Agora, se você quiser que seu próprio computador pessoal reconheça a fala, você não precisa colocá-lo pelo mesmo
processo de aprendizagem meticuloso (como fazemos com cada criança humana); você pode simplesmente baixar o já estabelecido
padrões em segundos.
Modelagem Analítica Versus Neuromórfica do Cérebro. Um bom exemplo da divergência entre humanos
inteligência e IA contemporânea é como cada um empreende a solução de um problema de xadrez. Humanos fazem isso por
Reconhecendo padrões, enquanto as máquinas constroem enormes "árvores" lógicas de possíveis movimentos e contra-movimentos. Mais tecnologia
(de todos os tipos) até agora tem usado este último tipo de abordagem de engenharia "de cima para baixo", analítica. Nossas máquinas voadoras, para
Por exemplo, não tente recriar a fisiologia e a mecânica dos pássaros. Mas como nossas ferramentas para engenharia reversa
os caminhos da natureza estão crescendo rapidamente em sofisticação, a tecnologia está se movendo em direção à emulação da natureza, enquanto
implementar essas técnicas em substratos muito mais capazes.
O cenário mais atraente para dominar o software de inteligência é tocar diretamente no projeto do
melhor exemplo em que podemos colocar as mãos em um processo inteligente: o cérebro humano. Embora tenha levado seu original
"designer" (evolução) vários bilhões de anos para desenvolver o cérebro, está prontamente disponível para nós, protegido por um crânio, mas
com as ferramentas certas não escondidas de nossa visão. Seu conteúdo ainda não está protegido por direitos autorais ou patenteado. (Podemos, no entanto,
espere que isso mude; pedidos de patentes já foram depositados com base na engenharia reversa do cérebro.) 7 Vamos aplicar
Os milhares de trilhões de bytes de informação derivados de varreduras cerebrais e modelos neurais em muitos níveis para projetar
algoritmos paralelos mais inteligentes para nossas máquinas, particularmente aqueles baseados em paradigmas de auto-organização.
Com essa abordagem de auto-organização, não precisamos tentar replicar todas as conexões neurais. Existe um
muita repetição e redundância dentro de qualquer região particular do cérebro. Estamos descobrindo que os modelos de nível superior
de regiões do cérebro são frequentemente mais simples do que os modelos detalhados de seus componentes neuronais.
Quão complexo é o cérebro? Embora as informações contidas em um cérebro humano exigiriam da ordem de um
bilhões de bilhões de bits (ver capítulo 3), o projeto inicial do cérebro é baseado no genoma humano bastante compacto. O
Todo o genoma consiste em oitocentos milhões de bytes, mas a maior parte é redundante, restando apenas cerca de trinta para um
cem milhões de bytes (menos de 10 9 bits) de informação única (após a compressão), que é menor que o programa
para Microsoft Word. 8 Para sermos justos, devemos também levar em consideração os dados "epigenéticos", que são informações armazenadas em
proteínas que controlam a expressão gênica (isto é, que determinam quais genes têm permissão para criar proteínas em cada célula), como
bem como toda a maquinaria de replicação de proteínas, como os ribossomos e uma série de enzimas. No entanto, tal
informações adicionais não alteram significativamente a ordem de magnitude desse cálculo. 9 Um pouco mais do que
metade da informação genética e epigenética caracteriza o estado inicial do cérebro humano.
Claro, a complexidade de nossos cérebros aumenta muito à medida que interagimos com o mundo (por um fator de cerca de um
bilhões sobre o genoma). 10 Mas padrões altamente repetitivos são encontrados em cada região específica do cérebro, por isso não é necessário
para capturar cada detalhe particular para fazer a engenharia reversa com sucesso dos algoritmos relevantes, que combinam digital e
métodos analógicos (por exemplo, o disparo de um neurônio pode ser considerado um evento digital, enquanto os níveis de neurotransmissor
na sinapse podem ser considerados valores analógicos). O padrão básico de fiação do cerebelo, por exemplo, é descrito
no genoma apenas uma vez, mas repetido bilhões de vezes. Com as informações da varredura e modelagem do cérebro
estudos, podemos projetar software equivalente "neuromórfico" simulado (isto é, algoritmos funcionalmente equivalentes ao
desempenho geral de uma região do cérebro).
[Link] 104/349
10/03/2021 ************************************************* ** *
Página 130
O ritmo de construção de modelos de trabalho e simulações está apenas ligeiramente aquém da disponibilidade de escaneamento do cérebro
e informações sobre a estrutura dos neurônios. Existem mais de cinquenta mil neurocientistas no mundo, escrevendo artigos para
mais de trezentos periódicos. 11 O campo é amplo e diverso, com cientistas e engenheiros criando novas varreduras
e tecnologias de detecção e desenvolvimento de modelos e teorias em muitos níveis. Portanto, mesmo as pessoas da área muitas vezes não são
completamente ciente de todas as dimensões da pesquisa contemporânea.
Modelando o cérebro. Na neurociência contemporânea, modelos e simulações estão sendo desenvolvidos a partir de diversos
fontes, incluindo varreduras cerebrais, modelos de conexão interneuronal, modelos neuronais e testes psicofísicos. Como
mencionado anteriormente, o pesquisador de sistemas auditivos Lloyd Watts desenvolveu um modelo abrangente de
parte do sistema de processamento auditivo humano a partir de estudos de neurobiologia de tipos específicos de neurônios e
informações de conexão interneuronal. O modelo de Watts inclui cinco caminhos paralelos e as representações reais de
informações auditivas em cada estágio do processamento neural. Watts implementou seu modelo em um computador em tempo real
software que pode localizar e identificar sons e funções, semelhante à maneira como a audição humana opera. Embora um
trabalho em andamento, o modelo ilustra a viabilidade de converter modelos neurobiológicos e dados de conexão do cérebro
em simulações de trabalho.
Como Hans Moravec e outros especularam, essas simulações funcionais eficientes requerem cerca de mil
vezes menos computação do que seria necessário se simulássemos as não linearidades em cada dendrito, sinapse e outros
estrutura subneural na região que está sendo simulada. (Como discuti no capítulo 3, podemos estimar o cálculo
necessário para a simulação funcional do cérebro a 10 16 cálculos por segundo [cps], contra 10 19 cps para simular o
não linearidades subneurais. 12
A relação de velocidade real entre a eletrônica contemporânea e a sinalização eletroquímica em
conexões interneuronais é de pelo menos um milhão para um. Encontramos essa mesma ineficiência em todos os aspectos da nossa biologia,
Porque a evolução biológica construiu todos os seus mecanismos e sistemas com um conjunto severamente restrito de materiais:
a saber, células, que são feitas de um conjunto limitado de proteínas. Embora as proteínas biológicas sejam três
dimensionais, eles são restritos a moléculas complexas que podem ser dobradas a partir de uma sequência linear (unidimensional) de
aminoácidos.
Descascando a Cebola. O cérebro não é um único órgão de processamento de informações, mas sim um intrincado e entrelaçado
coleção de centenas de regiões especializadas. O processo de "descascar a cebola" para compreender as funções destes
regiões intercaladas está bem encaminhado. À medida que as descrições de neurônios necessários e os dados de interconexão do cérebro tornam-se
réplicas disponíveis, detalhadas e implementáveis, como a simulação das regiões auditivas descritas abaixo (ver
"Outro exemplo: o modelo de Watts das regiões auditivas" na p. 183) será desenvolvido para todas as regiões do cérebro.
A maioria dos algoritmos de modelagem cerebral não são os métodos lógicos sequenciais que são comumente usados em
computação hoje. O cérebro tende a usar processos auto-organizados, caóticos e holográficos (isto é, informações não
localizado em um lugar, mas distribuído por uma região). Também é maciçamente paralelo e utiliza híbridos digitais
técnicas analógicas controladas. No entanto, uma ampla gama de projetos tem demonstrado nossa capacidade de compreender estes
técnicas e extraí-las de nosso conhecimento cada vez maior sobre o cérebro e sua organização.
Depois que os algoritmos de uma determinada região são compreendidos, eles podem ser refinados e estendidos antes de serem
Implementado em equivalentes neurais sintéticos. Eles podem ser executados em um substrato computacional que já é muito mais rápido
do que os circuitos neurais. (Os computadores atuais realizam cálculos em bilionésimos de segundo, em comparação com milésimos de um
segundo para transações interneuronais.) E também podemos fazer uso dos métodos para construir máquinas inteligentes que
nós já entendemos.
Página 131
A resposta a essa pergunta depende do que queremos dizer com a palavra "computador". A maioria dos computadores hoje é totalmente digital
e execute um (ou talvez alguns) cálculos por vez em uma velocidade extremamente alta. Em contraste, o cérebro humano
combina métodos digitais e analógicos, mas realiza a maioria dos cálculos no domínio analógico (contínuo), usando
neurotransmissores e mecanismos relacionados. Embora esses neurônios executem cálculos em velocidades extremamente lentas
(normalmente duzentas transações por segundo), o cérebro como um todo é maciçamente paralelo: a maioria de seus neurônios trabalham em
ao mesmo tempo, resultando em até cem trilhões de cálculos executados simultaneamente.
O enorme paralelismo do cérebro humano é a chave para sua capacidade de reconhecimento de padrões, que é um dos pilares
[Link] 105/349
10/03/2021 ************************************************* ** *
do pensamento de nossa espécie. Os neurônios dos mamíferos se envolvem em uma dança caótica (isto é, com muitos aparentemente aleatórios
interações), e se a rede neural aprendeu bem suas lições, um padrão estável emergirá, refletindo o
decisão da rede. No momento, projetos paralelos para computadores são um tanto limitados. Mas não há razão para
recriações não biológicas funcionalmente equivalentes de redes neurais biológicas não podem ser construídas usando esses princípios.
Na verdade, dezenas de esforços em todo o mundo já conseguiram fazê-lo. Meu próprio campo técnico é padrão
reconhecimento, e os projetos em que estive envolvido por cerca de quarenta anos usam essa forma de treinamento e
computação não determinística.
Muitos dos métodos de organização característicos do cérebro também podem ser simulados de forma eficaz usando
computação de potência suficiente. A duplicação dos paradigmas de design da natureza será, acredito, uma tendência-chave no futuro
Informática. Devemos ter em mente, também, que a computação digital pode ser funcionalmente equivalente à analógica
computação - isto é, podemos realizar todas as funções de uma rede híbrida digital-analógica com uma rede totalmente digital
computador. O inverso não é verdade: não podemos simular todas as funções de um computador digital com um analógico.
No entanto, a computação analógica tem uma vantagem de engenharia: é potencialmente milhares de vezes mais
eficiente. Um cálculo analógico pode ser realizado por alguns transistores ou, no caso de neurônios de mamíferos, específicos
processos eletroquímicos. Em contraste, uma computação digital requer milhares ou dezenas de milhares de transistores.
Por outro lado, esta vantagem pode ser compensada pela facilidade de programação (e modificação) baseada em computador digital
simulações.
Existem várias outras maneiras pelas quais o cérebro difere de um computador convencional:
• Os circuitos do cérebro são muito lentos. Tempos de reinicialização sináptica e estabilização de neurônios (a quantidade de tempo necessária para
um neurônio e suas sinapses para reiniciar após o neurônio disparar) são tão lentos que há muito poucos neurônios
ciclos de disparo disponíveis para tomar decisões de reconhecimento de padrões. Imagem de ressonância magnética funcional (fMRI)
e exames de magnetoencefalografia (MEG) mostram que julgamentos que não requerem a resolução de ambigüidades
parecem ser feitos em um único ciclo de disparo de neurônios (menos de vinte milissegundos), envolvendo essencialmente nenhum
processos iterativos (repetidos). O reconhecimento de objetos ocorre em cerca de 150 milissegundos, de modo que mesmo que "pensemos
algo mais, "o número de ciclos de operação é medido em centenas ou milhares no máximo, não bilhões,
como acontece com um computador típico.
• Mas é maciçamente paralelo. O cérebro tem cerca de cem trilhões de conexões interneuronais, cada
potencialmente processando informações simultaneamente. Esses dois fatores (tempo de ciclo lento e paralelismo maciço)
resultar em um certo nível de capacidade computacional para o cérebro, como discutimos anteriormente.
Hoje, nossos maiores supercomputadores estão se aproximando dessa faixa. Os principais supercomputadores (incluindo aqueles
usados pelos mecanismos de pesquisa mais populares) medem mais de 10 14 cps, o que corresponde à faixa inferior das estimativas
Eu discuti no capítulo 3 para simulação funcional. Não é necessário, no entanto, usar a mesma granularidade de
Processamento paralelo como o próprio cérebro, desde que correspondamos à velocidade computacional geral e à capacidade de memória
necessário e simular a arquitetura maciçamente paralela do cérebro.
•O cérebro combina fenômenos analógicos e digitais. A topologia das conexões no cérebro é essencialmente
digital - existe uma conexão ou não. Um disparo de axônio não é totalmente digital, mas se aproxima muito de um digital
processar. Quase todas as funções do cérebro são analógicas e preenchidas com não linearidades (mudanças repentinas na produção,
em vez de níveis mudando suavemente) que são substancialmente mais complexos do que o modelo clássico que temos
usado para neurônios. No entanto, a dinâmica não linear detalhada de um neurônio e todos os seus constituintes
Página 132
(dendritos, espinhos, canais e axônios) podem ser modelados por meio da matemática de sistemas não lineares. Esses
modelos matemáticos podem então ser simulados em um computador digital com qualquer grau de precisão desejado. Como eu
mencionado, se simularmos as regiões neurais usando transistores em seu modo analógico nativo, em vez de através
computação digital, esta abordagem pode fornecer capacidade aprimorada em três ou quatro ordens de magnitude, como
Carver Mead demonstrou. 13
•O cérebro se reconecta. Os dendritos estão continuamente explorando novos espinhos e sinapses. A topologia e
a condutância de dendritos e sinapses também está se adaptando continuamente. O sistema nervoso é auto-organizado em tudo
níveis de sua organização. Embora as técnicas matemáticas usadas em sistemas computadorizados de reconhecimento de padrões
como redes neurais e modelos de Markov são muito mais simples do que aqueles usados no cérebro, temos
experiência em engenharia com modelos auto-organizáveis. 14 Os computadores contemporâneos não se reconectam literalmente
(embora os "sistemas de autocura" emergentes estejam começando a fazer isso), mas podemos simular efetivamente esse processo em
Programas. 15 No futuro, podemos implementar isso em hardware, também, embora possa haver vantagens para
implementar a maior parte da auto-organização em software, o que fornece mais flexibilidade para os programadores.
•A maioria dos detalhes do cérebro são aleatórios. Embora haja uma grande quantidade de estocástico (aleatório dentro cuidadosamente
restrições controladas) em todos os aspectos do cérebro, não é necessário modelar cada "covinha" no
superfície de cada dendrito, não mais do que é necessário modelar cada pequena variação na superfície de cada
transistor na compreensão dos princípios de operação de um computador. Mas certos detalhes são críticos na decodificação
Os princípios de funcionamento do cérebro, que nos obriga a distinguir entre eles e aqueles que compreendem
"ruído" estocástico ou caos. Os aspectos caóticos (aleatórios e imprevisíveis) da função neural podem ser modelados
usando as técnicas matemáticas da teoria da complexidade e teoria do caos. 16
•O cérebro usa propriedades emergentes. O comportamento inteligente é uma propriedade emergente do cérebro caótico e
[Link] 106/349
10/03/2021 ************************************************* ** *
atividade complexa. Considere a analogia com o design aparentemente inteligente de colônias de cupins e formigas, com seus
túneis de interconexão delicadamente construídos e sistemas de ventilação. Apesar de seu design inteligente e complexo,
colinas de formigas e cupins não têm arquitetos mestres; a arquitetura emerge das interações imprevisíveis de todos
os membros da colônia, cada um seguindo regras relativamente simples.
•O cérebro é imperfeito. É da natureza dos sistemas adaptativos complexos que a inteligência emergente de suas decisões
é subótimo. (Ou seja, reflete um nível inferior de inteligência do que seria representado por um ótimo
disposição de seus elementos.} Ele só precisa ser bom o suficiente, o que, no caso de nossa espécie, significava um nível de
inteligência suficiente para nos permitir superar os concorrentes em nosso nicho ecológico (por exemplo, primatas que
Também combine uma função cognitiva com um apêndice oponível, mas cujos cérebros não são tão desenvolvidos quanto
humanos e cujas mãos não funcionam tão bem).
• Nós nos contradizemos. Uma variedade de ideias e abordagens, incluindo as conflitantes, leva a
resultados. Nossos cérebros são perfeitamente capazes de sustentar pontos de vista contraditórios. Na verdade, nós prosperamos com essa
diversidade. Considere a analogia com uma sociedade humana, particularmente democrática, com suas formas construtivas de
resolver vários pontos de vista.
•O cérebro usa a evolução. O paradigma básico de aprendizagem usado pelo cérebro é evolucionário: os padrões de
conexões que têm mais sucesso em dar sentido ao mundo e contribuir para reconhecimentos e decisões
sobreviver. O cérebro de um recém-nascido contém principalmente conexões interneuronais ligadas aleatoriamente, e apenas uma parte de
Esses sobrevivem no cérebro de dois anos. 17
• Ospadrões são importantes. Certos detalhes desses métodos caóticos de auto-organização, expressos como modelo
restrições (regras que definem as condições iniciais e os meios para a auto-organização), são cruciais, enquanto muitos
os detalhes dentro das restrições são inicialmente definidos aleatoriamente. O sistema então se auto-organiza e gradualmente representa
as características invariantes das informações que foram apresentadas ao sistema. A informação resultante não é
encontrado em nós ou conexões específicas, mas sim um padrão distribuído.
•O cérebro é holográfico. Existe uma analogia entre as informações distribuídas em um holograma e o método de
representação da informação em redes cerebrais. Encontramos isso também nos métodos de auto-organização usados em
reconhecimento de padrões computadorizado, como redes neurais, modelos de Markov e algoritmos genéticos. 18
Página 133
•O cérebro está profundamente conectado. O cérebro obtém sua resiliência por ser uma rede profundamente conectada na qual
a informação tem muitas maneiras de navegar de um ponto a outro. Considere a analogia com a Internet, que
tornou-se estável à medida que o número de seus nós constituintes aumentou. Nós, até mesmo hubs inteiros de
a Internet, pode se tornar inoperante sem nunca derrubar toda a rede. Da mesma forma, nós continuamente
perder neurônios sem afetar a integridade de todo o cérebro.
•O cérebro tem uma arquitetura de regiões. Embora os detalhes das conexões dentro de uma região sejam inicialmente
aleatório dentro de restrições e auto-organizado, há uma arquitetura de várias centenas de regiões que executam
funções específicas, com padrões específicos de entre regiões de conexões.
•O projeto de um cérebro de região é mais simples do que o projeto de um neurônio. Os modelos costumam ficar mais simples em um nível superior,
não mais complexo. Considere uma analogia com um computador. Precisamos entender a física detalhada de
semicondutores para modelar um transistor, e as equações subjacentes a um único transistor real são complexas.
No entanto, um circuito digital que multiplica dois números, embora envolva centenas de transistores, pode ser
Modelado de forma muito mais simples, com apenas algumas fórmulas. Um computador inteiro com bilhões de transistores pode ser
modelado por meio de seu conjunto de instruções e descrição de registro, que pode ser descrito em um punhado de páginas escritas
de texto e transformações matemáticas.
Os programas de software para um sistema operacional, compiladores de linguagem e montadores são razoavelmente complexos, mas
modelar um programa específico - por exemplo, um programa de reconhecimento de voz baseado na modelagem de Markov - pode ser
Descrito em apenas algumas páginas de equações. Em nenhuma parte dessa descrição seriam encontrados os detalhes de
física de semicondutores. Uma observação semelhante também se aplica ao cérebro. Um arranjo neural particular que detecta
um determinado recurso visual invariável (como um rosto) ou que realiza uma filtragem de passagem de banda (restringindo a entrada a um determinado
Faixa de frequência) operação na informação auditiva ou que avalia a proximidade temporal de dois eventos pode ser
Descrito com muito mais simplicidade do que a física real e as relações químicas que controlam os neurotransmissores
e outras variáveis sinápticas e dendríticas envolvidas nos respectivos processos. Embora toda essa complexidade neural
terá que ser cuidadosamente considerado antes de avançar para o próximo nível superior (modelagem do cérebro), muito disso pode ser
simplificado uma vez que os princípios de funcionamento do cérebro são compreendidos.
[Link] 107/349
10/03/2021 ************************************************* ** *
Página 134
[Link] 108/349
10/03/2021 ************************************************* ** *
Página 135
Não-linearidade. Um sistema tão simples cria somas ponderadas de suas entradas não pode realizar o essencial
requisitos de computação.
Agora sabemos que os neurônios biológicos reais têm muitas outras não linearidades resultantes da
ação eletroquímica das sinapses e a morfologia (forma) dos dendritos. Arranjos diferentes
de neurônios biológicos pode realizar cálculos, incluindo subtração, multiplicação, média, filtragem,
sinais de normalização e limiares, entre outros tipos de transformações.
A capacidade dos neurônios de realizar a multiplicação é importante porque permitiu o comportamento de um
rede de neurônios no cérebro a ser modulada (influenciada) pelos resultados dos cálculos de outro
rede. Experimentos usando medições eletrofisiológicas em macacos fornecem evidências de que a taxa
de sinalização por neurônios no córtex visual ao processar uma imagem é aumentada ou diminuída pelo
ou não o macaco está prestando atenção a uma área particular daquela imagem. 25 estudos de fMRI humanos também
mostrado que prestar atenção a uma determinada área de uma imagem aumenta a capacidade de resposta dos neurônios
processar essa imagem em uma região cortical chamada V5, que é responsável pela detecção de movimento. 26
O movimento do conexionismo sofreu um retrocesso em 1969 com a publicação do livro
Perceptrons de Marvin Minsky e Seymour Papert do MIT. 27 Incluía um teorema chave demonstrando que
o tipo mais comum (e mais simples) de rede neural usada na época (chamada de Perceptron, desenvolvida por
Frank Rosenblatt de Cornell), foi incapaz de resolver o simples problema de determinar se uma linha
desenho foi totalmente conectado. 28 O movimento da rede neural ressurgiu na década de 1980 usando um método
Chamado de "retropropagação", em que a força de cada sinapse simulada foi determinada usando um aprendizado
algoritmo que ajustou o peso (a força da saída de cada um dos neurônios artificiais após cada treinamento
teste para que a rede pudesse "aprender" a corresponder mais corretamente à resposta certa.
No entanto, a retropropagação não é um modelo viável de treinamento de peso sináptico em um sistema biológico real
rede neural, porque para trás às conexões para realmente ajustar a força das conexões sinápticas
não parecem existir em cérebros de mamíferos. Em computadores, no entanto, este tipo de sistema de auto-organização pode
Resolva uma ampla gama de problemas de reconhecimento de padrões e o poder deste modelo simples de auto-organização
neurônios interconectados foram demonstrados.
Menos conhecido é a segunda forma de aprendizagem de Hebb: um loop hipotético em que ele excita o
neurônio se alimentaria de si mesmo (possivelmente através de outras camadas), causando uma reverberação (uma contínua
a reexcitação pode ser a fonte de aprendizagem de curto prazo). Ele também sugeriu que esta reverberação de curto prazo
poderia levar a memórias de longo prazo: "Suponhamos então que a persistência ou repetição de uma reverberação
a atividade (ou 'traço') tende a induzir mudanças celulares duradouras que aumentam sua estabilidade. A suposição pode ser
afirmado precisamente da seguinte forma: Quando um axônio da célula A está próximo o suficiente para excitar uma célula B e repetidamente ou
participar persistentemente do disparo, algum processo de crescimento ou alteração metabólica ocorre em uma ou em ambas as células
de forma que a eficiência de A, como um dos disparos da célula B, é aumentada. "
Embora a memória reverberatória de Hebbian não esteja tão bem estabelecida quanto o aprendizado sináptico de Hebb,
instâncias foram descobertas recentemente. Por exemplo, conjuntos de neurônios excitatórios (aqueles que estimulam um
sinapse) e neurônios inibitórios (aqueles que bloqueiam um estímulo) começam uma oscilação quando determinado visual
padrões são apresentados. 29 E pesquisadores do MIT e Bell Labs da Lucent Technologies criaram um
circuito integrado eletrônico, composto por transistores, que simula a ação de dezesseis neurônios excitatórios
e um neurônio inibitório para imitar o circuito biológico do córtex cerebral. 30
Esses modelos iniciais de neurônios e processamento de informações neurais, embora excessivamente simplificados e
imprecisas em alguns aspectos, eram notáveis, dada a falta de dados e ferramentas quando essas teorias eram
desenvolvido.
Perscrutando o cérebro
Página 136
Conseguimos reduzir a deriva e o ruído em nossos instrumentos a tal ponto que podemos ver o mais ínfimo
movimentos dessas moléculas, através de distâncias que são menores que seus próprios diâmetros .... [Esses] tipos de
experimentos eram apenas sonhos 15 anos atrás.
[Link] 109/349
10/03/2021 ************************************************* ** *
Imagine que estivéssemos tentando fazer a engenharia reversa de um computador sem saber nada sobre isso (a "caixa preta"
aproximação). Podemos começar colocando conjuntos de sensores magnéticos ao redor do dispositivo. Notaríamos que durante
operações que atualizaram um banco de dados, uma atividade significativa estava ocorrendo em uma placa de circuito particular. Nós seríamos
É provável que observe que também houve ação no disco rígido durante essas operações. (Na verdade, ouvindo o disco rígido
sempre foi uma janela tosca para o que um computador está fazendo.)
Podemos então teorizar que o disco tem algo a ver com a memória de longo prazo que armazena os bancos de dados e
que a placa de circuito que está ativa durante essas operações foi envolvida na transformação dos dados a serem armazenados. Isso diz
nós aproximadamente onde e quando as operações estão ocorrendo, mas relativamente pouco sobre como essas tarefas são
realizado.
Se os registros do computador (locais de memória temporários) estivessem conectados às luzes do painel frontal (como era o caso
com os primeiros computadores), veríamos certos padrões de oscilação da luz que indicavam mudanças rápidas nos estados de
Esses registros durante os períodos em que o computador estava analisando dados, mas mudanças relativamente lentas quando o computador
estava transmitindo dados. Podemos então teorizar que essas luzes refletiram mudanças no estado lógico durante algum tipo de
comportamento analítico. Esses insights seriam precisos, mas rudes e não nos forneceriam uma teoria de operação ou
quaisquer insights sobre como as informações são realmente codificadas ou transformadas.
A situação hipotética descrita acima reflete o tipo de esforços que foram empreendidos para digitalizar e modelar
o cérebro humano com as ferramentas rudimentares que historicamente estão disponíveis. A maioria dos modelos baseados no cérebro contemporâneo
pesquisa de varredura (utilizando métodos como fMRI, MEG e outros discutidos abaixo) são apenas sugestivos do
mecanismos subjacentes. Embora esses estudos sejam valiosos, sua resolução espacial e temporal bruta não é
adequado para engenharia reversa das características salientes do cérebro.
Novas ferramentas para escanear o cérebro. Agora imagine, em nosso exemplo de computador acima, que podemos realmente colocar
sensores precisos em pontos específicos do circuito e que esses sensores são capazes de rastrear sinais específicos em muito
altas velocidades. Teríamos agora as ferramentas necessárias para acompanhar as informações reais sendo transformadas em tempo real, e
Seríamos capazes de criar uma descrição detalhada de como os circuitos realmente funcionam. Isso é, de fato, exatamente como
engenheiros elétricos procuram entender e depurar circuitos, como placas de computador (para fazer engenharia reversa de um
produto do concorrente, por exemplo), usando analisadores lógicos que visualizam sinais de computador.
A neurociência ainda não teve acesso à tecnologia de sensores que realizasse esse tipo de análise, mas que
situação está prestes a mudar. Nossas ferramentas para perscrutar nossos cérebros estão melhorando em um ritmo exponencial. A resolução
de dispositivos de varredura cerebral não invasivos está dobrando a cada doze meses (por unidade de volume). 31
Página 137
[Link] 110/349
10/03/2021 ************************************************* ** *
Página 138
A ferramenta de varredura cerebral mais comumente usada é fMRI, que fornece resolução espacial relativamente alta de um a três
milímetros (não alto o suficiente para gerar imagens de neurônios individuais), mas baixa resolução temporal (tempo) de alguns segundos. Recente
gerações de tecnologia fMRI fornecem resolução de tempo de cerca de um segundo, ou um décimo de segundo para um cérebro fino
fatiar.
[Link] 111/349
10/03/2021 ************************************************* ** *
Outra técnica usada é o MEG, que comumente mede campos magnéticos fracos fora do crânio, produzidos
principalmente pelos neurônios piramidais do córtex. MEG é capaz de resolução temporal rápida (um milissegundo), mas
resolução espacial muito grosseira, cerca de um centímetro.
Fritz Sommer, investigador principal do Redwood Neuroscience Institute, está desenvolvendo métodos de combinação
fMRI e MEG para melhorar a precisão espaço-temporal das medições. Outros avanços recentes têm
Técnicas de fMRI demonstradas capazes de mapear regiões chamadas estruturas colunares e laminares, que são apenas
fração de milímetro de largura e de detecção de tarefas que ocorrem em dezenas de milissegundos. 32
fMRI e uma técnica de varredura relacionada usando pósitrons chamada tomografia por emissão de pósitrons (PET), ambos medidores
atividade neuronal por meios indiretos. PET mede o fluxo sanguíneo cerebral regional (rCBF), enquanto tMRI mede
níveis de oxigênio no sangue. 33 Embora a relação dessas quantidades de fluxo sanguíneo com a atividade neural seja o assunto de alguns
controvérsia, o consenso é que eles refletem a atividade sináptica local, não a ativação de neurônios. A relação de
a atividade neural ao fluxo sanguíneo foi articulada pela primeira vez no final do século XIX. 34 Uma limitação do tMRI, no entanto, é
que a relação do fluxo sanguíneo com a atividade sináptica não é direta: uma variedade de mecanismos metabólicos afetam o
relação entre os dois fenômenos.
Página 139
No entanto, PET e tMRI são considerados os mais confiáveis para medir as mudanças relativas no estado do cérebro. O
método principal que eles usam é o "paradigma de subtração", que pode mostrar regiões que são mais ativas durante
tarefas. 35 Este procedimento envolve a subtração de dados produzidos por uma varredura quando o sujeito não está realizando uma atividade
a partir de dados produzidos enquanto o sujeito está realizando uma atividade mental especificada. A diferença representa a mudança em
estado do cérebro.
Uma técnica invasiva que fornece alta resolução espacial e temporal é a "imagem óptica", que envolve
Remoção de parte do crânio, coloração do tecido cerebral vivo com um corante que torna fluorescente a atividade neural e, em seguida,
imagem da luz emitida com uma câmera digital. Uma vez que a imagem óptica requer cirurgia, ela tem sido usada principalmente em
animais, particularmente ratos, experimentos.
Outra abordagem para a funcionalidade do cérebro em diferentes regiões é a estimulação magnética transcraniana
(TMS), que envolve a aplicação de um campo magnético de forte pulsação de fora do crânio, usando uma bobina magnética com precisão
posicionado sobre a cabeça. Ao estimular ou induzir uma "lesão virtual" de (desativando temporariamente) pequenas
regiões do cérebro, as habilidades podem ser diminuídas ou aprimoradas. 36 TMS também pode ser usado para estudar a relação de diferentes
áreas do cérebro em tarefas específicas e podem até induzir sensações de experiências místicas. 37 Cientista do cérebro Allan
Snyder relatou que cerca de 40 por cento de seus assuntos de teste ligados ao TMS exibem novas habilidades significativas, muitas
dos quais são notáveis, como habilidades de desenho. 38
Se tivermos a opção de destruir o cérebro que estamos explorando, a resolução espacial dramaticamente maior se tornará
possível. A varredura de um cérebro congelado é viável hoje, embora ainda não em velocidade ou largura de banda suficiente para mapear totalmente todos
interconexões. Mas, novamente, de acordo com a lei dos retornos acelerados, esse potencial está crescendo exponencialmente,
assim como todas as outras facetas da varredura do cérebro.
Andreas Nowatzyk da Carnegie Mellon University está examinando o sistema nervoso do cérebro e do corpo de um camundongo
com uma resolução de menos de duzentos nanômetros, que está se aproximando da resolução necessária para reversão total
Engenharia. Outro scanner destrutivo chamado "Brain Tissue Scanner" desenvolvido na Brain Networks
O laboratório da Texas A&M University é capaz de escanear o cérebro de um camundongo inteiro com uma resolução de 250 nanômetros em um
mês, usando fatias. 39
Melhorar a resolução. Muitas novas tecnologias de escaneamento do cérebro agora em desenvolvimento estão melhorando dramaticamente tanto
resolução temporal e espacial. Esta nova geração de sistemas de detecção e varredura está fornecendo as ferramentas necessárias para
desenvolver modelos com níveis finos de detalhes sem precedentes. A seguir está uma pequena amostra dessas imagens emergentes
sistemas de detecção.
Uma nova câmera de digitalização particularmente interessante está sendo desenvolvida na Universidade da Pensilvânia
Laboratório de Pesquisa de Neuroengenharia, liderado por Leif H. Pinkel. 40 A resolução espacial projetada do sistema óptico irá
ser alto o suficiente para gerar imagens de neurônios individuais e em resolução de tempo de um milissegundo, o que é suficiente para registrar o
disparo de cada neurônio.
As versões iniciais são capazes de digitalizar cerca de cem células simultaneamente, a uma profundidade de até dez mícrons do
Câmera. Uma versão futura irá gerar imagens de até mil células simultâneas, a uma distância de até 150 mícrons do
câmera e em resolução de tempo submilissegundo. O sistema pode escanear o tecido neural in vivo (em um cérebro vivo) enquanto um
o animal está empenhado em uma tarefa mental, embora a superfície do cérebro deva ser exposta. O tecido neural é manchado para gerar
fluorescência dependente da voltagem, que é captada pela câmera de alta resolução. O sistema de digitalização será usado
para examinar o cérebro dos animais antes e depois de aprenderem habilidades perceptivas específicas. Este sistema combina o rápido
(um milissegundo) resolução temporária de MEG enquanto é capaz de gerar imagens de neurônios e conexões individuais.
Métodos também foram desenvolvidos para ativar neurônios de forma não invasiva ou mesmo uma parte específica de um neurônio em um
maneira temporal e espacialmente precisa. Uma abordagem, envolvendo fótons, usa uma excitação direta de "dois fótons",
chamado de "microscopia de varredura a laser de dois fótons" (TPLSM). 41 Isso cria um único ponto de foco em três dimensões
espaço que permite digitalização de alta resolução. Ele utiliza pulsos de laser que duram apenas um milionésimo de um bilionésimo de um
o segundo (10 -15 a segunda) para detectar a excitação do individuais sinapses no intacto e do cérebro por vBulletin® A medição de intracelular
acúmulo de cálcio associado à ativação de receptores sinápticos. 42 Embora o método destrua um
[Link] 112/349
10/03/2021 ************************************************* ** *
Página 140
quantidade insignificante de tecido, ele fornece imagens de resolução extremamente alta de espinhas dendríticas individuais e
sinapses em ação.
Essa técnica tem sido usada para realizar cirurgias intracelulares ultraprecisas. O físico Eric Mazur e seu
colegas da Universidade de Harvard demonstraram sua capacidade de executar modificações precisas de células, como
cortar uma conexão interneuronal ou destruir uma única mitocôndria (a fonte de energia da célula) sem afetar
outros componentes celulares. "Ele gera o calor do sol", diz o colega de Mazur, Donald Ingber, "mas apenas para
quintilionésimos de segundo e em um espaço muito pequeno. "
Outra técnica, chamada de "gravação multieletrodo", usa uma série de eletrodos para gravar simultaneamente o
atividade de um grande número de neurônios com resolução temporal muito alta (submilissegundo). 43 Além disso, um não invasivo
técnica chamada microscopia de geração de segundo harmônico (SHG) é capaz de "estudar as células em ação", explica o líder
o desenvolvedor Daniel Dombeck, um estudante de graduação na Cornell University. Ainda outra técnica, chamada de coerência óptica
imagem (OCI), usa luz coerente (ondas de luz que estão todas alinhadas na mesma fase) para criar um sistema holográfico de três
imagens dimensionais de aglomerados de células.
Digitalizando com Nanobots. Embora esses meios amplamente não invasivos de escanear o cérebro de fora do crânio sejam
melhorando rapidamente, a abordagem mais poderosa para capturar cada detalhe neural saliente será digitalizá-lo de dentro.
Na década de 2020, a tecnologia dos nanobôs será viável e o escaneamento do cérebro será uma de suas aplicações proeminentes. Como
Descritos anteriormente, os nanobots são robôs que terão o tamanho de células sanguíneas humanas (sete a oito mícrons) ou mesmo
menor. 44 bilhões deles poderiam viajar através de todos os capilares cerebrais, explorando cada característica neural relevante de cima
fechar. Usando comunicação sem fio de alta velocidade, os nanorrobôs se comunicariam entre si e com
computadores compilando o banco de dados de varredura cerebral. (Em outras palavras, os nanobots e computadores estarão todos em uma rede sem fio
rede de área local.) 45
Um desafio técnico fundamental para a interface de nanorrobôs com estruturas biológicas do cérebro é a barreira hematoencefálica
(BBB). No final do século XIX, os cientistas descobriram que quando injetaram corante azul na pele de um animal
Na corrente sanguínea, todos os órgãos do animal ficaram azuis, com exceção da medula espinhal e do cérebro. Eles com precisão
a hipótese de uma barreira que protege o cérebro de uma ampla gama de substâncias potencialmente prejudiciais no sangue,
Incluindo bactérias, hormônios, substâncias químicas que podem atuar como neurotransmissores e outras toxinas. Apenas oxigênio, glicose,
e um conjunto muito seleto de outras pequenas moléculas são capazes de deixar os vasos sanguíneos e entrar no cérebro.
As autópsias no início do século XX revelaram que o revestimento dos capilares do cérebro e de outras células nervosas.
os tecidos do sistema estão, de fato, muito mais compactados com células vasculares endoteliais do que em outros órgãos de tamanho comparável.
Estudos mais recentes mostraram que o BBB é um sistema complexo que apresenta gateways completos com chaves e
senhas que permitem a entrada no cérebro. Por exemplo, duas proteínas chamadas zonulina e zot foram descobertas que
reagem com receptores no cérebro para abrir temporariamente o BBB em locais selecionados. Essas duas proteínas desempenham papel semelhante em
Abrindo receptores no intestino delgado para permitir a digestão de glicose e outros nutrientes.
Qualquer projeto de nanobots para escanear ou interagir de outra forma com o cérebro terá que considerar o BBB. eu descrevo
aqui várias estratégias que serão viáveis, dadas as capacidades futuras. Sem dúvida, outros serão desenvolvidos ao longo do
próximo quarto de século.
• Uma tática óbvia é fazer o nanobot pequeno o suficiente para deslizar através do BBB, mas isso é o menos prático
abordagem, pelo menos com a nanotecnologia como a imaginamos hoje. Para fazer isso, o nanobot teria que ter vinte
nanômetros ou menos de diâmetro, que tem aproximadamente o tamanho de cem átomos de carbono. Limitando um nanobot a estes
dimensões limitariam severamente sua funcionalidade.
• Uma estratégia intermediária seria manter o nanorrobô na corrente sanguínea, mas projetar um braço robótico
através da BBB e no fluido extracelular que reveste as células neurais. Isso permitiria ao nanobot
Permaneça grande o suficiente para ter recursos computacionais e de navegação suficientes. Uma vez que quase todos os neurônios mentem
Dentro de duas ou três células de largura de um capilar, o braço precisaria atingir apenas cerca de cinquenta mícrons.
Página 141
As análises conduzidas por Rob Freitas e outros mostram que é bastante viável restringir a largura de tal
manipulador para menos de vinte nanômetros.
• Outra abordagem é manter os nanorrobôs nos capilares e usar a varredura não invasiva. Por exemplo, o
[Link] 113/349
10/03/2021 ************************************************* ** *
sistema de digitalização sendo projetado por Finkel e seus associados pode digitalizar em resolução muito alta (suficiente para ver
interconexões individuais) a uma profundidade de 150 mícrons, que é várias vezes maior do que precisamos. Obviamente
Este tipo de sistema de imagem óptica teria que ser significativamente miniaturizado (em comparação com o contemporâneo
designs), mas usa sensores de dispositivo com carga acoplada, que são passíveis de redução de tamanho.
• Outro
tipo de varredura não invasiva envolveria um conjunto de nanobots emitindo sinais focados semelhantes a
Aqueles de um scanner de dois fótons e outro conjunto de nanorrobôs recebendo a transmissão. A topologia do
o tecido interveniente pode ser determinado analisando o impacto no sinal recebido.
• Outro
tipo de estratégia, sugerida por Robert Freitas, seria o nanobô literalmente abrir caminho para além do
BBB, quebrando um orifício nele, sai do vaso sanguíneo e, em seguida, repare o dano. Uma vez que o nanobot pode ser
Construído com carbono em uma configuração diamondoide, seria muito mais forte do que os tecidos biológicos. Freitas
escreve: "Para passar entre as células em um tecido rico em células, é necessário que um nanorrobô em avanço interrompa alguns
número mínimo de contatos adesivos célula a célula que estão à frente em seu caminho. Depois disso, e com o objetivo de
minimizando a biointrusão, o nanorrobô deve selar novamente os contatos adesivos em seu rastro, grosseiramente análogo a
uma toupeira escavadora. " 46
• Ainda outra abordagem é sugerida por estudos contemporâneos sobre câncer. Os pesquisadores do câncer estão profundamente interessados em
interromper seletivamente o BBB para transportar substâncias destruidoras do câncer para os tumores. Estudos recentes do BBB
mostrar que ele se abre em resposta a uma variedade de fatores, que incluem certas proteínas, como mencionado acima;
hipertensão localizada; altas concentrações de certas substâncias; microondas e outras formas de radiação;
infecção; e inflamação. Existem também processos especializados que transportam substâncias necessárias, como
glicose. Também foi descoberto que o açúcar manitol causa um encolhimento temporário do
células endoteliais para fornecer uma violação temporária da BBB. Ao explorar esses mecanismos, várias pesquisas
grupos estão desenvolvendo compostos que abrem o BBB. 47 Embora esta pesquisa seja voltada para terapias contra o câncer,
Abordagens semelhantes podem ser usadas para abrir os gateways para nanobots que irão escanear o cérebro, bem como aprimorar nosso
funcionamento mental.
• Poderíamos contornar a corrente sanguínea e o BBB por completo, injetando os nanorrobôs em áreas do cérebro que
têm acesso direto ao tecido neural. Como menciono abaixo, novos neurônios migram dos ventrículos para outras partes do
o cérebro. Os nanobots podem seguir o mesmo caminho de migração.
• Rob Freitas descreveu várias técnicas para nanorrobôs para monitorar sinais sensoriais. 48 Isso será importante
Tanto para fazer engenharia reversa das entradas para o cérebro, quanto para criar realidade virtual de imersão total a partir de
dentro do sistema nervoso.
► Para escanear e monitorar sinais auditivos, Freitas propõe "nanodispositivos móveis ... [que] nadam na espiral
artéria da orelha e para baixo através de suas bifurcações para alcançar o canal coclear, em seguida, posicionar-se como
monitores neurais nas proximidades das fibras nervosas espirais e os nervos que entram no epitélio do órgão
de Corti [nervos cocleares ou auditivos] dentro do gânglio espiral. Esses monitores podem detectar, registrar ou
retransmitir para outros nanodispositivos na rede de comunicações todo o tráfego neural auditivo percebido por
o ouvido humano. "
► Para as "sensações de gravidade, rotação e aceleração" do corpo, ele visualiza "nanomonitores posicionados em
as terminações nervosas aferentes emanando de células ciliadas localizadas nos ... canais semicirculares. "
► Para"gerenciamento sensorial cinestésico ... os neurônios motores podem ser monitorados para manter o controle dos movimentos dos membros."
e posições, ou atividades musculares específicas, e até mesmo para exercer controle. "
► "O tráfego neural sensorial olfatório e gustativo pode ser interceptado por instrumentos nanosensoriais."
► "Os sinais de dor podem ser registrados ou modificados conforme necessário, assim como os impulsos nervosos mecânicos e de temperatura
de ... receptores localizados na pele. "
Página 142
► Freitasressalta que a retina é rica em pequenos vasos sanguíneos ", permitindo fácil acesso a ambos
fotorreceptor (bastonete, cone, bipolar e gânglio) e integrador ... neurônios. "Os sinais da óptica
nervo representam mais de cem milhões de níveis por segundo, mas este nível de processamento de sinal é
já administrável. Como Tomaso Poggio do MIT e outros fizeram, indicamos que ainda não entendemos o
codificação dos sinais do nervo óptico. Assim que tivermos a capacidade de monitorar os sinais de cada fibra discreta
no nervo óptico, nossa capacidade de interpretar esses sinais será muito facilitada. Esta é atualmente uma área
de intensa pesquisa.
Como discuto abaixo, os sinais brutos do corpo passam por vários níveis de processamento antes de serem
agregados em uma representação dinâmica compacta em dois pequenos órgãos chamados de ínsula direita e esquerda, localizados profundamente no
córtex cerebral. Para realidade virtual de imersão total, pode ser mais eficaz explorar os sinais já interpretados
na ínsula, em vez dos sinais não processados por todo o corpo.
Varredura do cérebro com o propósito de engenharia reversa de seus princípios de operação é uma ação mais fácil do que
digitalizá-lo com o propósito de "fazer upload" de uma personalidade específica, que discuto mais adiante (consulte a seção "Upload
the Human Brain ", p. 198). Para fazer a engenharia reversa do cérebro, só precisamos examinar as conexões em um
região suficientemente para compreender seu padrão básico. Não precisamos capturar todas as conexões.
Uma vez que entendemos os padrões de fiação neural dentro de uma região, podemos combinar esse conhecimento com um detalhado
[Link] 114/349
10/03/2021 ************************************************* ** *
compreensão de como cada tipo de neurônio naquela região opera. Embora uma determinada região do cérebro possa ter
bilhões de neurônios, ele conterá apenas um número limitado de tipos de neurônios. Já fizemos um progresso significativo
na derivação dos mecanismos subjacentes a variedades específicas de neurônios e conexões sinápticas ao estudar essas células
in vitro (em um prato de teste), bem como in vivo usando métodos como a varredura de dois fótons.
Os cenários acima envolvem recursos que existem pelo menos em um estágio inicial hoje. Já temos tecnologia
capaz de produzir varreduras de alta resolução para visualizar a forma precisa de cada conexão em um cérebro específico
área, se o scanner estiver fisicamente próximo aos recursos neurais. No que diz respeito aos nanobots, já existem quatro principais
conferências dedicadas ao desenvolvimento de dispositivos do tamanho das células sanguíneas para fins diagnósticos e terapêuticos. 49 Conforme discutido em
Capítulo 2, podemos projetar o custo de computação em declínio exponencial e o tamanho em rápido declínio e aumento
eficácia das tecnologias eletrônicas e mecânicas. Com base nessas projeções, podemos conservadoramente
antecipar a tecnologia nanobot necessária para implementar esses tipos de cenários durante a década de 2020. Uma vez que o nanobot-
varredura baseada se torna uma realidade, nós finalmente estaremos na mesma posição que os designers de circuitos estão hoje: nós estaremos
Capaz de colocar sensores altamente sensíveis e de alta resolução (na forma de nanobots) em milhões ou até bilhões de
Localizações no cérebro e, portanto, testemunham em detalhes de tirar o fôlego cérebros vivos em ação.
Se fôssemos encolhidos magicamente e colocados no cérebro de alguém enquanto ela estava pensando, veríamos todos os
bombas, pistões, engrenagens e alavancas funcionando, e seríamos capazes de descrever seu funcionamento completamente,
em termos mecânicos, descrevendo assim completamente os processos de pensamento do cérebro. Mas essa descrição
em nenhum lugar conteria qualquer menção de pensamento! Não conteria nada além de descrições de bombas, pistões,
Alavancas!
Como ... os campos expressam seus princípios? Os físicos usam termos como fótons, elétrons, quarks, onda quântica
função, relatividade e conservação de energia. Os astrônomos usam termos como planetas, estrelas, galáxias, Hubble
mudança e buracos negros. Os termodinamicistas usam termos como entropia, primeira lei, segunda lei e ciclo de Carnot.
Os biólogos usam termos como filogenia, ontogenia, DNA e enzimas. Cada um desses termos é na verdade o título de
Página 143
uma história! Os princípios de um campo são, na verdade, um conjunto de histórias entrelaçadas sobre a estrutura e o comportamento de
elementos de campo.
É importante que construamos modelos do cérebro no nível certo. Isso é, claro, verdadeiro para todas as nossas pesquisas científicas
modelos. Embora a química seja teoricamente baseada na física e pudesse ser derivada inteiramente da física, isso seria
ser pesado e inviável na prática. Portanto, a química usa suas próprias regras e modelos. Devemos da mesma forma, em teoria, ser
Capaz de deduzir as leis da termodinâmica da física, mas este é um processo nada simples. Assim que tivermos
um número suficiente de partículas para chamar algo de gás em vez de um monte de partículas, resolvendo equações para cada
a interação de partículas torna-se impraticável, enquanto as leis da termodinâmica funcionam extremamente bem. As interações
de uma única molécula dentro do gás são desesperadamente complexos e imprevisíveis, mas o próprio gás, compreendendo trilhões de
moléculas, tem muitas propriedades previsíveis.
Da mesma forma, a biologia, que tem suas raízes na química, usa seus próprios modelos. Muitas vezes é desnecessário expressar mais
resultados de nível usando os meandros da dinâmica dos sistemas de nível inferior, embora seja necessário
compreender o nível inferior antes de passar para o superior. Por exemplo, podemos controlar certas características genéticas de um
animal, manipulando seu DNA fetal, sem necessariamente compreender todos os mecanismos bioquímicos do DNA,
muito menos as interações dos átomos na molécula de DNA.
Freqüentemente, o nível inferior é mais complexo. Uma célula das ilhotas pancreáticas, por exemplo, é extremamente complicada, em termos
de todas as suas funções bioquímicas (a maioria das quais se aplica a todas as células humanas, algumas a todas as células biológicas). Ainda modelando
o que o pâncreas faz - com seus milhões de células - em termos de regulação dos níveis de insulina e enzimas digestivas,
embora não seja simples, é consideravelmente menos difícil do que formular um modelo detalhado de uma única célula de ilhota.
O mesmo problema se aplica aos níveis de modelagem e compreensão no cérebro, da física da sináptica
reações até as transformações de informação por aglomerados neurais. Nas regiões do cérebro para as quais temos
conseguiu desenvolver modelos detalhados, encontramos um fenômeno semelhante ao que envolve as células pancreáticas. Os modelos
são complexos, mas permanecem mais simples do que as descrições matemáticas de uma única célula ou mesmo de uma única sinapse. Como nós
discutido anteriormente, esses modelos específicos de região também requerem significativamente menos computação do que está teoricamente implícito
pela capacidade computacional de todas as sinapses e células.
Gilles Laurent, do California Institute of Technology, observa: "Na maioria dos casos, o comportamento coletivo de um sistema é
muito difícil de deduzir do conhecimento de seus componentes .... [Neurociência é ... uma ciência de sistemas em que primeiro-
ordem e esquemas explicativos locais são necessários, mas não suficientes. "A engenharia reversa do cérebro prosseguirá por
[Link] 115/349
10/03/2021 ************************************************* ** *
refinamento iterativo de modelos e simulações de cima para baixo e de baixo para cima, à medida que refinamos cada nível de
descrição e modelagem.
Até muito recentemente, a neurociência era caracterizada por modelos excessivamente simplistas, limitados pela crueza de nosso
ferramentas de detecção e varredura. Isso levou muitos observadores a duvidar se nossos processos de pensamento eram inerentemente capazes
de se compreender. Peter D. Kramer escreve: "Se a mente fosse simples o suficiente para entendermos, nós
ser simples demais para entendê-lo. " 50 Anteriormente, citei a comparação de Douglas Hofstadter de nosso cérebro com o de uma girafa, o
estrutura que não é tão diferente de um cérebro humano, mas que claramente não tem a capacidade de
compreender seus próprios métodos. No entanto, o sucesso recente no desenvolvimento de modelos altamente detalhados em vários níveis - de
componentes neurais, como sinapses para grandes regiões neurais, como o cerebelo - demonstram que a construção precisa
modelos matemáticos de nossos cérebros e, em seguida, simular esses modelos com computação é uma tarefa desafiadora, mas viável
assim que os recursos de dados estiverem disponíveis. Embora os modelos tenham uma longa história na neurociência, só recentemente
que eles se tornaram suficientemente abrangentes e detalhados para permitir que simulações baseadas neles funcionem como
Experimentos cerebrais reais.
Página 144
Se quem somos é moldado pelo que lembramos, e se a memória é uma função do cérebro, então as sinapses - o
interfaces através das quais os neurônios se comunicam entre si e as estruturas físicas nas quais
As memórias são codificadas - são as unidades fundamentais do self .... As sinapses são muito baixas no totem de
como o cérebro é organizado, mas acho que eles são muito importantes .... O self é a soma do indivíduo do cérebro
subsistemas, cada um com sua própria forma de "memória", juntamente com as complexas interações entre os
subsistemas. Sem plasticidade sináptica - a capacidade das sinapses de alterar a facilidade com que transmitem
sinais de um neurônio para outro - as mudanças nesses sistemas que são necessárias para a aprendizagem seriam
impossível. 51
Embora a modelagem inicial tenha tratado o neurônio como a unidade primária de transformação da informação, a maré mudou
para enfatizar seus componentes subcelulares. O neurocientista computacional Anthony J. Bell, por exemplo, argumenta:
Os processos moleculares e biofísicos controlam a sensibilidade dos neurônios aos picos de entrada (ambos sinápticos
eficiência e responsividade pós-sináptica), a excitabilidade do neurônio para produzir picos, os padrões de 170
picos que pode produzir e a probabilidade de formação de novas sinapses (religação dinâmica), para listar apenas quatro das
interferências mais óbvias do nível subneural. Além disso, os efeitos do volume transneural, como local
campos elétricos e a difusão transmembrana de óxido nítrico foram vistos como influenciando, responsivamente,
disparo neural coerente, e a entrega de energia (fluxo sanguíneo) para as células, o último dos quais se correlaciona diretamente
com atividade neural. A lista poderia continuar. Eu acredito que qualquer pessoa que estude seriamente neuromoduladores, íon
Canais, ou mecanismo sináptico e é honesto, teriam que rejeitar o nível do neurônio como uma computação separada
nível, mesmo que seja um nível descritivo útil. 52
Na verdade, uma sinapse real do cérebro é muito mais complexa do que a descrita na rede neural clássica de McCulloch-Pitts
modelo. A resposta sináptica é influenciada por uma série de fatores, incluindo a ação de múltiplos canais controlados
por uma variedade de potenciais iônicos (voltagens) e vários neurotransmissores e neuromoduladores. Progresso considerável
foi feito nos últimos vinte anos, no entanto, no desenvolvimento das fórmulas matemáticas subjacentes ao comportamento de
neurônios, dendritos, sinapses e a representação de informações nos trens de pico (pulsos por neurônios que têm
foi ativado). Peter Dayan e Larry Abbott escreveram recentemente um resumo do diferencial não linear existente
equações que descrevem uma ampla gama de conhecimentos derivados de milhares de estudos experimentais. 53 Bem-
modelos comprovados existem para a biofísica dos corpos dos neurônios, sinapses e a ação de redes feedforward de
neurônios, como os encontrados na retina e nos nervos ópticos, e em muitas outras classes de neurônios.
A atenção a como a sinapse funciona tem suas raízes no trabalho pioneiro de Hebb. Hebb abordou a questão, como
a memória de curto prazo (também chamada de trabalho) funciona? A região do cérebro associada à memória de curto prazo é a
córtex pré-frontal, embora agora percebamos que diferentes formas de retenção de informações de curto prazo foram identificadas
na maioria dos outros circuitos neurais que foram estudados de perto.
A maior parte do trabalho de Hebb focou nas mudanças no estado das sinapses para fortalecer ou inibir os sinais recebidos e
o circuito reverberatório mais controverso, no qual os neurônios disparam em um loop contínuo. 54 Outra teoria proposta por
Hebb é uma mudança no estado de um neurônio em si - ou seja, uma função de memória no soma (corpo) da célula. O experimental
As evidências apóiam a possibilidade de todos esses modelos. Memória sináptica hebbiana clássica e reverberatória
a memória requer um atraso de tempo antes que as informações gravadas possam ser usadas. Experimentos in vivo mostram que em pelo menos
[Link] 116/349
10/03/2021 ************************************************* ** *
algumas regiões do cérebro, há uma resposta neural que é muito rápida para ser explicada por tal aprendizado padrão
modelos e, portanto, só poderia ser realizado por mudanças induzidas pelo aprendizado no soma. 55
Página 145
Outra possibilidade não antecipada diretamente por Hebb são as mudanças em tempo real nas próprias conexões de neurônios.
Resultados de varredura recentes mostram rápido crescimento de picos de dendritos e novas sinapses, então isso deve ser considerado um
mecanismo importante. Os experimentos também demonstraram uma rica gama de comportamentos de aprendizagem no nível sináptico que
vá além dos modelos simples de Hebbian. As sinapses podem mudar de estado rapidamente, mas então começam a decair lentamente com
estimulação contínua, ou em alguns uma falta de estimulação, ou muitas outras variações. 56
Embora os modelos contemporâneos sejam muito mais complexos do que os modelos simples de sinapses concebidos por Hebb, seu
as intuições provaram-se amplamente corretas. Além da plasticidade sináptica Hebbian, os modelos atuais incluem
processos que desempenham uma função reguladora. Por exemplo, a escala sináptica impede que os potenciais sinápticos se tornem
zero (e, portanto, sendo incapaz de ser aumentado por meio de abordagens multiplicativas) ou tornando-se excessivamente alto e
dominando assim uma rede. Experimentos in vitro encontraram escalonamento sináptico em redes de cultura de neocorticais,
neurônios do hipocampo e da medula espinhal. 57 Outros mecanismos são sensíveis ao tempo de pico geral e à distribuição de
potencial em muitas sinapses. Simulações demonstraram a capacidade desses mecanismos recentemente descobertos de
melhorar o aprendizado e a estabilidade da rede.
O novo desenvolvimento mais empolgante em nossa compreensão da sinapse é que a topologia das sinapses e
as conexões que eles formam estão mudando continuamente. Nosso primeiro vislumbre das rápidas mudanças nas conexões sinápticas
foi revelado por um sistema de varredura inovador que requer um animal geneticamente modificado cujos neurônios foram
projetado para emitir uma luz verde fluorescente. O sistema pode gerar imagens de tecido neural vivo e tem um nível suficientemente alto
resolução para capturar não apenas os dendritos (conexões interneuronais), mas as espinhas: pequenas projeções que brotam de
os dendritos e iniciar sinapses potenciais.
O neurobiólogo Karel Svoboda e seus colegas do Cold Spring Harbor Laboratory em Long Island usaram o
sistema de varredura em ratos para investigar redes de neurônios que analisam informações dos bigodes, um estudo que
Forneceu uma visão fascinante sobre o aprendizado neural. Os dendritos desenvolveram continuamente novos espinhos. A maioria destes durou apenas um
um ou dois dias, mas às vezes a coluna se mantinha estável. "Acreditamos que a alta rotatividade que vemos pode desempenhar um
papel importante na plasticidade neural, em que os espinhos em crescimento alcançam para sondar diferentes parceiros pré-sinápticos em
neurônios produto ”, disse Svoboda. "Se uma determinada conexão for favorável, isto é, refletindo um tipo desejável de cérebro
religando, então essas sinapses são estabilizadas e se tornam mais permanentes. Mas a maioria dessas sinapses não vai em
na direção certa, e eles são retraídos. " 58
Outro fenômeno consistente que tem sido observado é que as respostas neurais diminuem ao longo do tempo, se um determinado
o estímulo é repetido. Essa adaptação dá maior prioridade a novos padrões de estímulos. Trabalho semelhante de neurobiologista
Wen-Biao Gan da Escola de Medicina da Universidade de Nova York em espinhos neuronais no córtex visual de camundongos adultos
Mostra que esse mecanismo da coluna pode armazenar memórias de longo prazo: "Digamos que uma criança de 10 anos use 1.000 conexões para armazenar
um pedaço de informação. Quando ele tiver 80 anos, um quarto das conexões ainda estará lá, não importa como as coisas mudem.
É por isso que você ainda pode se lembrar de suas experiências de infância. "Gan também explica:" Nossa ideia era que você realmente
Não precisa fazer muitas sinapses novas e se livrar das antigas ao aprender, memorizar. Você só precisa modificar o
força das sinapses preexistentes para aprendizagem e memória de curto prazo. No entanto, é provável que algumas sinapses sejam
feito ou eliminado para alcançar a memória de longo prazo. " 59
A razão pela qual as memórias podem permanecer intactas mesmo que três quartos das conexões tenham desaparecido é que o
O método de codificação usado parece ter propriedades semelhantes às de um holograma. Em um holograma, as informações são armazenadas em
um padrão difuso em toda uma extensa região. Se você destruir três quartos do holograma, a imagem inteira
permanece intacta, embora com apenas um quarto da resolução. Pesquisa de Pentti Kanerva, neurocientista da
Redwood Neuroscience Institute, apóia a ideia de que as memórias são distribuídas dinamicamente por uma região de
neurônios. Isso explica por que as memórias mais antigas persistem, mas ainda assim parecem "desvanecer-se", porque sua resolução
diminuído.
Modelos de Neurônios
Página 146
Os pesquisadores também estão descobrindo que neurônios específicos realizam tarefas especiais de reconhecimento. Um experimento com galinhas
[Link] 117/349
10/03/2021 ************************************************* ** *
identificou neurônios do tronco cerebral que detectam atrasos específicos conforme os sons chegam aos dois ouvidos. 60 neurônios diferentes respondem
para diferentes quantidades de atraso. Embora existam muitas irregularidades complexas em como esses neurônios (e as redes
eles dependem) do trabalho, o que eles estão realmente realizando é fácil de descrever e seria simples de replicar.
De acordo com o neurocientista Scott Makeig da Universidade da Califórnia em San Diego, "Resultados neurobiológicos recentes
sugerem um papel importante de entradas neurais precisamente sincronizadas no aprendizado e na memória. " 61
Neurônios eletrônicos. Um experimento recente na Universidade da Califórnia em San Diego's Institute for Nonlinear
A ciência demonstra o potencial dos neurônios eletrônicos para emular com precisão os biológicos. Neurônios (biológicos ou
caso contrário) são um excelente exemplo do que é freqüentemente chamado de computação caótica. Cada neurônio atua essencialmente de uma forma
moda imprevisível. Quando toda uma rede de neurônios recebe entrada (do mundo externo ou de outro
redes de neurônios), a sinalização entre eles parece à primeira vista frenética e aleatória. Com o tempo, normalmente um
fração de segundo ou mais, a interação caótica dos neurônios se extingue e um padrão estável de disparo emerge. Esta
padrão representa a "decisão" da rede neural. Se a rede neural estiver realizando uma tarefa de reconhecimento de padrões
(e tais tarefas constituem a maior parte da atividade no cérebro humano), o padrão emergente representa o apropriado
reconhecimento. .
Portanto, a questão abordada pelos pesquisadores de San Diego foi: os neurônios eletrônicos poderiam se envolver neste caótico
dançar ao lado dos biológicos? Eles conectaram neurônios artificiais com neurônios reais de lagostas em um único
rede, e sua rede híbrida biológica-não biológica realizada da mesma maneira (isto é, interação caótica
seguido por um padrão emergente estável) e com o mesmo tipo de resultados que uma rede totalmente biológica de neurônios.
Essencialmente, os neurônios biológicos aceitaram seus pares eletrônicos. Isso indica que o modelo matemático caótico
desses neurônios era razoavelmente preciso.
Plasticidade cerebral
Em 1861, o neurocirurgião francês Paul Broca correlacionou regiões do cérebro feridas ou cirurgicamente afetadas com certas perdas
habilidades, como habilidades motoras finas ou habilidade de linguagem. Por mais de um século, os cientistas acreditaram que essas regiões eram
Com fio para tarefas específicas. Embora certas áreas do cérebro tendam a ser usadas para determinados tipos de habilidades, agora
Entenda que essas atribuições podem ser alteradas em resposta a lesões cerebrais, como um derrame. Em um estudo clássico de 1965,
DH Hubel e TN Wiesel mostraram que uma reorganização extensa e de longo alcance do cérebro pode ocorrer após
danos ao sistema nervoso, como um acidente vascular cerebral. 62
Além disso, o arranjo detalhado de conexões e sinapses em uma determinada região é um produto direto de como
amplamente essa região é usada. Como a varredura do cérebro atingiu resolução suficientemente alta para detectar a coluna dendrítica
Com o crescimento e a formação de novas sinapses, podemos ver nosso cérebro crescer e se adaptar para seguir literalmente nossos pensamentos. Esta
dá novos matizes de significado à máxima de Descartes "Penso, logo existo".
Página 147
[Link] 118/349
10/03/2021 ************************************************* ** *
Em um experimento conduzido por Michael Merzenich e seus colegas da Universidade da Califórnia em San
Francisco, a comida dos macacos era colocada numa posição tal que os animais tinham que manipular com destreza um dedo para
obtê-lo. As varreduras do cérebro antes e depois revelaram um crescimento dramático nas conexões interneuronais e sinapses no
região do cérebro responsável por controlar aquele dedo.
Edward Taub, da Universidade do Alabama, estudou a região do córtex responsável por avaliar a capacidade tátil
entrada dos dedos. Comparando não músicos a músicos experientes de instrumentos de corda, ele não encontrou
diferença nas regiões do cérebro dedicadas aos dedos da mão direita, mas uma enorme diferença para os dedos da mão esquerda
mão. Se desenharmos as mãos com base na quantidade de tecido cerebral dedicado à análise do toque, os músicos
dedos da mão esquerda (que são usados para controlar as cordas) seriam enormes. Embora a diferença fosse maior
para aqueles músicos que começaram a treinar musicalmente com um instrumento de cordas quando crianças, "mesmo que você comece a tocar violino
Aos 40, "Taub comentou," você ainda consegue reorganização do cérebro. " 63
Uma descoberta semelhante vem de uma avaliação de um programa de software, desenvolvido por Paula Tallal e Steve Miller em
Rutgers University, chamada Fast ForWord, que auxilia alunos disléxicos. O programa lê texto para crianças, desacelerando
para baixo fonemas staccato, como "b" e "p", com base na observação de que muitos alunos disléxicos são incapazes de
perceber esses sons quando falados rapidamente. Foi demonstrado que ler com esta forma modificada de discurso ajuda
Página 148
essas crianças aprendem a ler. Usando a varredura de fMRI, John Gabrieli, da Universidade de Stanford, descobriu que o pré-frontal esquerdo
região do cérebro, uma área associada ao processamento da linguagem, havia de fato crescido e mostrado maior atividade em
alunos disléxicos que usam o programa. Tallal diz: "Você cria seu cérebro a partir das informações que recebe."
Não é nem mesmo necessário expressar os pensamentos em ações físicas para fazer o cérebro se religar. Dr.
Alvaro Pascual-Leone, da Universidade de Harvard, escaneou os cérebros de voluntários antes e depois de praticarem um simples
exercício de piano. O córtex motor do cérebro dos voluntários mudou como resultado direto de sua prática. Ele então teve um
o segundo grupo pensa apenas em fazer o exercício de piano, mas sem realmente mover nenhum músculo. Isso produziu um
mudança igualmente pronunciada na rede do córtex motor. 64
Estudos recentes de fMRI de aprendizagem de relações espaciais visuais descobriram que os interneuronais são capazes de
mudar rapidamente durante o curso de uma única sessão de aprendizagem. Os pesquisadores encontraram mudanças nas conexões entre
células do córtex parietal posterior no que é chamado de via "dorsal" (que contém informações sobre a localização e
propriedades espaciais de estímulos visuais) e células do córtex temporal inferior posterior na via "ventral" (que
contém características invariantes reconhecidas de vários níveis de abstração); 65 significativamente, essa taxa de mudança foi diretamente
proporcional à taxa de aprendizagem. 66
Pesquisadores da Universidade da Califórnia em San Diego relataram um insight importante sobre a diferença na formação
de memórias de curto e longo prazo. Usando um método de digitalização de alta resolução, os cientistas foram capazes de ver
mudanças químicas nas sinapses no hipocampo, a região do cérebro associada à formação de
recordações. 67 Eles descobriram que quando uma célula foi estimulada pela primeira vez, a actina, um neuroquímico, moveu-se em direção aos neurônios
ao qual a sinapse foi conectada. Isso também estimulou a actina nas células a se afastar do
célula ativada. Essas mudanças duraram apenas alguns minutos, no entanto. Se os estímulos foram suficientemente repetidos, então um
mudanças mais significativas e permanentes ocorreram.
"As mudanças de curto prazo são apenas parte da maneira normal como as células nervosas se comunicam", o autor principal, Michael A.
Disse Colicos.
As mudanças de longo prazo nos neurônios ocorrem apenas depois que os neurônios são estimulados quatro vezes ao longo do curso
de uma hora. A sinapse irá realmente se dividir e novas sinapses irão se formar, produzindo uma mudança permanente que
provavelmente durará pelo resto de sua vida. A analogia com a memória humana é que quando você vê ou ouve
algo uma vez, pode ficar na sua mente por alguns minutos. Se não for importante, desaparece e você
esqueça 10 minutos depois. Mas se você ver ou ouvir de novo e isso continuar acontecendo ao longo da próxima hora, você está
[Link] 119/349
10/03/2021 ************************************************* ** *
vai se lembrar por muito mais tempo. E coisas que se repetem muitas vezes podem ser lembradas por
uma vida inteira. Uma vez que você pega um axônio e forma duas novas conexões, elas são muito estáveis
e não há razão para acreditar que eles irão embora. Esse é o tipo de mudança que se poderia imaginar durando um
vida inteira.
“É como uma aula de piano”, diz a co-autora e professora de biologia Yukiko Goda. Se você tocar uma partitura musical durante
e novamente, torna-se arraigado em sua memória. "Da mesma forma, em um artigo na Science neurocientists S. Lowel e
O relatório de W. Singer encontrou evidências de rápida formação dinâmica de novas conexões interneuronais no sistema visual
córtex, que eles descreveram com a frase de Donald Hebb "O que dispara juntos fios juntos". 68
Outro insight sobre a formação da memória é relatado em um estudo publicado na Cell. Os pesquisadores descobriram que o CPEB
a proteína realmente muda sua forma nas sinapses para registrar as memórias. 69 A surpresa foi que o CPEB realiza este
função de memória enquanto em um estado de príon.
"Por um tempo, sabemos um pouco sobre como a memória funciona, mas não tínhamos um conceito claro de qual é a chave
dispositivo de armazenamento é ", disse a co-autora e Diretora de Pesquisa Biomédica do Whitehead Institute for Biomedical, Susan Lindquist."
estudo sugere o que o dispositivo de armazenamento pode ser - mas é uma sugestão surpreendente descobrir que uma atividade semelhante ao príon
podem estar envolvidos .... Isso ... indica que os príons não são apenas excêntricos da natureza, mas podem participar de atividades fundamentais
processos. "Como relatei no capítulo 3, os engenheiros humanos também estão descobrindo que os príons são um meio poderoso de construir
memórias eletrônicas.
Página 149
Estudos de escaneamento do cérebro também estão revelando mecanismos para inibir memórias desnecessárias e indesejáveis, uma descoberta
isso agradaria Sigmund Freud. 70 Usando fMRI, os cientistas da Universidade de Stanford pediram aos participantes do estudo que tentassem
esqueça as informações que eles haviam memorizado anteriormente. Durante esta atividade, as regiões do córtex frontal que foram
associada à repressão da memória apresentou alto nível de atividade, enquanto o hipocampo, região normalmente
associado à lembrança, era relativamente inativo. Essas descobertas "confirmam a existência de um esquecimento ativo
processar e estabelecer um modelo neurobiológico para orientar a investigação sobre o esquecimento motivado ", escreveu Stanford
professor de psicologia John Gabrieli e seus colegas. Gabrieli também comentou: "A grande novidade é que mostramos
como o cérebro humano bloqueia uma memória indesejada, que esse mecanismo existe e tem uma base biológica. Fica
você ultrapassou a possibilidade de que não há nada no cérebro que suprimiria uma memória - que tudo foi mal compreendido
ficção. "
Além de gerar novas conexões entre os neurônios, o cérebro também faz novos neurônios a partir do tronco neural
células, que se replicam para manter um reservatório de si mesmas. Durante a reprodução, algumas das células-tronco neurais
tornam-se células "precursoras neurais", que por sua vez amadurecem em dois tipos de células de suporte chamadas astrócitos e
oligodendrócitos, bem como neurônios. As células evoluem ainda mais em tipos específicos de neurônios. No entanto, este
a diferenciação não pode ocorrer a menos que as células-tronco neurais se afastem de sua fonte original no cérebro
ventrículos. Apenas cerca de metade das células neurais fazem a jornada com sucesso, que é semelhante ao processo durante
gestação e primeira infância em que apenas uma parte dos primeiros neurônios em desenvolvimento do cérebro sobrevive. Os cientistas esperam
para contornar este processo de migração neural, injetando células-tronco neurais diretamente em regiões-alvo, bem como para criar
drogas que promovem este processo de neurogênese (criando novos neurônios) para reparar danos cerebrais causados por lesões ou
doença. 71
Um experimento dos pesquisadores de genética Fred Gage, G. Kempermann e Henriette van Praag no Salk Institute
para Biological Studies mostrou que a neurogênese é realmente estimulada por nossa experiência. Movendo ratos de um estéril,
gaiola desinteressante para estimulante, aproximadamente, dobrou o número de células em divisão em seu hipocampo
regiões. 72
Muito provavelmente, o cérebro humano é, em sua maioria, composto de um grande número de células distribuídas relativamente pequenas
sistemas, organizados pela embriologia em uma sociedade complexa que é controlada em parte (mas apenas em parte) por séries,
sistemas simbólicos que são adicionados posteriormente. Mas os sistemas subsimbólicos que fazem a maior parte do trabalho por baixo
devem, por seu próprio caráter, impedir que todas as outras partes do cérebro saibam muito sobre como funcionam.
E isso, por si só, poderia ajudar a explicar como as pessoas fazem tantas coisas, mas têm ideias incompletas sobre como
Essas coisas estão realmente feitas.
73
—M ARVIN M INSKY E S EYMOR P APERT
O bom senso não é uma coisa simples. Em vez disso, é uma imensa sociedade de ideias práticas adquiridas com dificuldade - de
multidões de regras e exceções aprendidas pela vida, disposições e tendências, equilíbrios e controles.
—M ARVIN M INSKY
Além de novos insights sobre a plasticidade da organização de cada região do cérebro, os pesquisadores estão criando rapidamente
modelos detalhados de regiões específicas do cérebro. Esses modelos neuromórficos e simulações ficam apenas ligeiramente para trás
[Link] 120/349
10/03/2021 ************************************************* ** *
a disponibilidade da informação em que se baseiam. O rápido sucesso de transformar os dados detalhados de estudos
de neurônios e os dados de interconexão de varredura neural em modelos eficazes e simulações de trabalho desmentem
ceticismo freqüentemente declarado sobre nossa capacidade inerente de compreender nossos próprios cérebros.
Página 150
A modelagem da funcionalidade do cérebro humano em uma base de não linearidade por não linearidade e sinapse por sinapse é geralmente.
não é necessário. Simulações de regiões que armazenam memórias e habilidades em neurônios e conexões individuais (para
exemplo, o cerebelo) fazem uso de modelos celulares detalhados. Mesmo para essas regiões, no entanto, as simulações
requerem muito menos computação do que o sugerido por todos os componentes neurais. Isso é verdade para a simulação do cerebelo
Descrito abaixo.
Embora haja uma grande complexidade detalhada e não linearidade nas partes subneurais de cada neurônio, como
bem como um padrão de fiação caótico e semi-aleatório subjacente aos trilhões de conexões no cérebro, um progresso significativo
foi desenvolvida nos últimos vinte anos na matemática da modelagem de tais sistemas não lineares adaptativos. Preservando
A forma exata de cada dendrito e o "rabisco" preciso de cada conexão interneuronal geralmente não é
necessário. Podemos compreender os princípios de operação das extensas regiões do cérebro examinando seus
dinâmica no nível apropriado de análise.
Já tivemos um sucesso significativo na criação de modelos e simulações de extensas regiões do cérebro. Aplicando
Testes para essas simulações e comparando os dados com os obtidos a partir de experimentos psicofísicos em humanos reais
cérebros produziram resultados impressionantes. Dada a crueza relativa de nossas ferramentas de varredura e detecção até o momento, o
sucesso na modelagem, conforme ilustrado pelos seguintes trabalhos em andamento, demonstra a capacidade de extrair o
percepções da massa de dados que estão sendo coletados. A seguir estão apenas alguns exemplos de modelos cerebrais de sucesso
regiões, todas as obras em andamento.
Uma questão que examinei em The Age of Spiritual Machines é: como uma criança de dez anos consegue pegar uma bola voadora? 74 tudo
que uma criança pode ver é a trajetória da bola a partir de sua posição no campo externo. Para realmente inferir o caminho da bola em
o espaço tridimensional exigiria a resolução de difíceis equações diferenciais simultâneas. Equações Adicionais
precisaria ser resolvido para prever o curso futuro da bola, e mais equações para traduzir esses resultados em quais
foi exigido dos próprios movimentos do jogador. Como um jovem outfielder consegue tudo isso em poucos segundos com
sem computador e sem treinamento em equações diferenciais? Claramente, ele não está resolvendo equações conscientemente, mas como
seu cérebro resolve o problema?
Desde a publicação do ASM, avançamos consideravelmente na compreensão desse processo básico de formação de habilidades.
Como eu havia hipotetizado, o problema não é resolvido com a construção de um modelo mental de movimento tridimensional. Em vez disso, o
o problema é eliminado pela tradução direta dos movimentos observados da bola no movimento apropriado do
jogador e mudanças na configuração de seus braços e pernas. Alexandre Pouget da Universidade de Rochester e
Lawrence H. Snyder, da Washington University, descreveu "funções básicas" matemáticas que podem representar este
transformação direta do movimento percebido no campo visual em movimentos exigidos dos músculos. 75 Além disso,
análise de modelos desenvolvidos recentemente do funcionamento do cerebelo demonstra que nosso sistema neural cerebelar
circuitos são de fato capazes de aprender e, em seguida, aplicar as funções básicas necessárias para implementar essas
transformações. Quando nos envolvemos no processo de tentativa e erro de aprender a realizar uma tarefa sensório-motora, como
Pegando uma bola voadora, estamos treinando os potenciais sinápticos das sinapses cerebelares para aprender a base apropriada
funções. O cerebelo realiza dois tipos de transformações com essas funções básicas: passando de um desejado
resultado para uma ação (chamados de "modelos internos inversos") e indo de um conjunto possível de ações para um resultado antecipado
("modelos internos avançados"). Tomaso Poggio apontou que a ideia de funções básicas pode descrever a aprendizagem
processos cerebrais que vão além do controle motor. 76
A região do cérebro em formato de feijão cinza e branca, do tamanho de uma bola de beisebol, chamada de cerebelo, fica no tronco cerebral e
compreende mais da metade dos neurônios do cérebro. Ele fornece uma ampla gama de funções críticas, incluindo sensoriomotor
coordenação, equilíbrio, controle de tarefas de movimento e a capacidade de antecipar os resultados das ações (nossas, bem como
aquelas de outros objetos e pessoas). 77 Apesar de sua diversidade de funções e tarefas, sua organização sináptica e celular é
Página 151
[Link] 121/349
10/03/2021 ************************************************* ** *
extremamente consistente, envolvendo apenas vários tipos de neurônios. Parece haver um tipo específico de computação que
Ele realiza. 78
Apesar da uniformidade do processamento de informações do cerebelo, a ampla gama de suas funções pode ser
Compreendido em termos da variedade de entradas que recebe do córtex cerebral (através dos núcleos do tronco cerebral e, em seguida,
através das células de fibra musgosa do cerebelo) e de outras regiões (particularmente a região "oliva inferior" do cérebro
através das células de fibra de escalada do cerebelo). O cerebelo é responsável por nossa compreensão do momento e
sequenciamento de entradas sensoriais, bem como controle de nossos movimentos físicos.
O cerebelo também é um exemplo de como a capacidade considerável do cérebro excede em muito seu genoma compacto.
A maior parte do genoma dedicado ao cérebro descreve a estrutura detalhada de cada tipo de célula neural (incluindo
seus dendritos, espinhas e sinapses) e como essas estruturas respondem à estimulação e mudança. Relativamente pequeno
o código genômico é responsável pela "fiação" real. No cerebelo, o método básico de fiação é repetido bilhões de
vezes. É claro que o genoma não fornece informações específicas sobre cada repetição desta estrutura cerebelar.
mas sim especifica certas restrições de como esta estrutura é repetida (assim como o genoma não especifica o
localização exata das células em outros órgãos).
Página 152
[Link] 122/349
10/03/2021 ************************************************* ** *
Algumas das saídas do cerebelo vão para cerca de duzentos mil neurônios motores alfa, que determinam
os sinais finais para os aproximadamente seiscentos músculos do corpo. Entradas para os neurônios motores alfa não diretamente
Página 153
Especificam os movimentos de cada um desses músculos, mas são codificados de uma forma mais compacta, mas ainda mal compreendida.
Os sinais finais para os músculos são determinados em níveis mais baixos do sistema nervoso, especificamente no tronco cerebral e
medula espinhal. 79 Curiosamente, esta organização é levada ao extremo no polvo, cujo sistema nervoso central
aparentemente envia comandos de alto nível para cada um de seus braços (como "agarre esse objeto e traga-o para mais perto"), deixando
cabe a um sistema nervoso periférico independente em cada braço realizar a missão. 80
Muito se aprendeu nos últimos anos sobre o papel dos três principais tipos de nervos do cerebelo.
Os neurônios chamados de "fibras de escalada" parecem fornecer sinais para treinar o cerebelo. A maior parte da saída do
cerebelo vem das grandes células de Purkinje (em homenagem a Johannes Purkinje, que identificou a célula em 1837), cada uma das
que recebe cerca de duzentas mil entradas (sinapses), em comparação com a média de cerca de mil para um
neurônio típico. As entradas vêm em grande parte das células granulares, que são os menores neurônios, embalados em cerca de seis
milhões por milímetro quadrado. Estudos do papel do cerebelo durante a aprendizagem dos movimentos da caligrafia por
as crianças mostram que as células de Purkinje realmente mostram a sequência de movimentos, com cada uma sensível a um específico
amostra. 81 Obviamente, o cerebelo requer orientação perceptual contínua a partir do córtex visual. Os pesquisadores
foram capazes de ligar a estrutura das células do cerebelo à observação de que existe uma relação inversa entre
curvatura e velocidade ao escrever à mão, ou seja, você pode escrever mais rápido desenhando linhas retas em vez de detalhadas
curvas para cada letra.
[Link] 123/349
10/03/2021 ************************************************* ** *
Estudos detalhados de células e estudos em animais nos forneceram descrições matemáticas impressionantes da
fisiologia e organização das sinapses do cerebelo, 82 bem como da codificação de informações em suas entradas
e saídas, e das transformações realizadas. 83 Reunindo dados de vários estudos, Javier F. Medina, Michael
D. Mauk e seus colegas da Escola de Medicina da Universidade do Texas desenvolveram uma simulação detalhada de baixo para cima de
o cerebelo. Possui mais de dez mil neurônios simulados e trezentas mil sinapses, e
Inclui todos os principais tipos de células do cerebelo. 84 As conexões das células e sinapses são determinadas por um
computador, que "liga" a região cerebelar simulada seguindo restrições e regras, semelhantes ao estocástico
(aleatório dentro de restrições) método usado para conectar o cérebro humano real a partir de seu código genético. 85 Não seria
difícil expandir a simulação cerebelar da Universidade do Texas para um número maior de sinapses e células.
Página 154
Os pesquisadores do Texas aplicaram um experimento de aprendizagem clássico em sua simulação e compararam os resultados com
muitos experimentos semelhantes no condicionamento humano real. Nos estudos humanos, a tarefa envolvia associar um
tom auditivo com um sopro de ar aplicado na pálpebra, que faz com que a pálpebra feche. Se o sopro de ar e o tom são
Apresentado junto por cem a duzentas tentativas, o sujeito aprenderá a associação e fechará o sujeito
olho apenas em ouvir o tom. Se o tom for apresentado muitas vezes sem o sopro de ar, o assunto em última análise
aprende a desassociar os dois estímulos (para "extinguir" a resposta), de forma que o aprendizado é bidirecional. Depois de sintonizar um
Variedade de parâmetros, a simulação forneceu uma correspondência razoável com resultados experimentais em humanos e animais
condicionamento cerebelar. Curiosamente, os pesquisadores descobriram que se eles criassem lesões cerebelares simuladas (por
removendo porções da rede cerebelar simulada), eles obtiveram resultados semelhantes aos obtidos em experimentos em
coelhos que receberam lesões cerebelares reais. 86
Por conta da uniformidade desta grande região do cérebro e da relativa simplicidade de seu interneurônio
fiação, suas transformações de entrada-saída são relativamente bem compreendidas, em comparação com as de outras regiões do cérebro.
Embora as equações relevantes ainda precisem de refinamento, esta simulação de baixo para cima se mostrou bastante impressionante.
Eu acredito que a maneira de criar uma inteligência semelhante ao cérebro é construir um sistema de modelo de trabalho em tempo real, preciso
Em detalhes suficientes para expressar a essência de cada cálculo que está sendo executado, e verificar se está correto
operação contra medições do sistema real. O modelo deve ser executado em tempo real para que sejamos forçados
para lidar com entradas inconvenientes e complexas do mundo real que, de outra forma, não poderíamos pensar em apresentar a ele.
O modelo deve operar em resolução suficiente para ser comparável ao sistema real, para que possamos construir o certo
intuições sobre quais informações são representadas em cada estágio. Seguindo Mead, 87 o desenvolvimento do modelo
necessariamente começa nos limites do sistema (ou seja, os sensores) onde o sistema real é bem compreendido,
e então pode avançar para as regiões menos compreendidas .... Desta forma, o modelo pode contribuir fundamentalmente
ao nosso entendimento avançado do sistema, em vez de simplesmente espelhar o entendimento existente. No
contexto de tamanha complexidade, é possível que a única forma prática de entender o sistema real seja
construir um modelo de trabalho, a partir dos sensores para dentro, com base em nossa capacidade recém-habilitada de visualizar o
complexidade do sistema à medida que avançamos nele. Tal abordagem poderia ser chamada de engenharia reversa do
cérebro .... Observe que não estou defendendo uma cópia cega de estruturas cujo propósito não entendemos, como
o lendário Ícaro que ingenuamente tentou construir asas com penas e cera. Em vez disso, estou defendendo
que respeitamos a complexidade e riqueza que já é bem compreendida em níveis baixos, antes de prosseguir
para níveis mais elevados.
88
-L LOYD W ATTS
[Link] 124/349
10/03/2021 ************************************************* ** *
trabalho em andamento, ilustra a viabilidade de converter modelos neurobiológicos e dados de conexão do cérebro em
simulações de trabalho. O software não se baseia na reprodução de cada neurônio individual e conexão, como é o
modelo de cerebelo descrito acima, mas sim as transformações realizadas por cada região.
O software de Watts é capaz de combinar as complexidades que foram reveladas em experimentos sutis em humanos
audição e discriminação auditiva. Watts usou seu modelo como um pré-processador (front end) no reconhecimento de voz
Página 155
sistemas e demonstrou sua capacidade de selecionar um alto-falante de sons de fundo (o "efeito de coquetel").
Este é um feito impressionante do qual os humanos são capazes, mas até agora não era viável na fala automatizada.
sistemas de reconhecimento. 90
Como a audição humana, o modelo de cóclea de Watts é dotado de sensibilidade espectral (ouvimos melhor em certos
frequências), respostas temporais (somos sensíveis ao tempo dos sons, que criam a sensação de seu espaço
locais), mascaramento, compressão de amplitude dependente da frequência não linear (que permite maior dinâmica
alcance - a capacidade de ouvir sons altos e baixos), controle de ganho (amplificação) e outros recursos sutis. O
os resultados obtidos são diretamente verificáveis por dados biológicos e psicofísicos.
O próximo segmento do modelo é o núcleo coclear, que é professor de neurociência da Universidade de Yale e
neurobiologia Gordon M. Shepherd 91 descreveu como "uma das regiões do cérebro mais bem compreendidas". 92 watts
A simulação do núcleo coclear é baseada no trabalho de E. Young que descreve em detalhes "os tipos de células essenciais
Responsável por detectar energia espectral, transientes de banda larga, sintonia fina em canais espectrais, aumentando a sensibilidade
para envelope temporário em canais espectrais e bordas espectrais e entalhes, tudo ao mesmo tempo que ajusta o ganho para o melhor
sensibilidade dentro da faixa dinâmica limitada do código neural de spiking. 93
O modelo Watts captura muitos outros detalhes, como a diferença de tempo interaural (lTD) calculada pelo medial
oliva superiores. 94 Também representa a diferença de nível interaural (DPI) calculada pela oliva superior lateral
células e normalizações e ajustes feitos pelas células do colículo inferior. 95
Página 156
[Link] 125/349
10/03/2021 ************************************************* ** *
O Sistema Visual
Fizemos progresso suficiente na compreensão da codificação de informações visuais que os implantes experimentais de retina têm
Foi desenvolvido e instalado cirurgicamente em pacientes. 97 No entanto, devido à relativa complexidade do sistema visual,
nossa compreensão do processamento da informação visual está atrasada em relação ao nosso conhecimento das regiões auditivas. Nós temos
modelos preliminares das transformações realizadas por duas áreas visuais (chamadas VI e MT), embora não no
Página 157
nível de neurônio individual. Existem trinta e seis outras áreas visuais, e precisaremos ser capazes de escanear essas regiões mais profundas
em resolução muito alta ou coloque sensores precisos para verificar suas funções.
Um pioneiro na compreensão do processamento visual é Tomaso Poggio do MIT, que distinguiu suas duas tarefas como
identificação e categorização. 98 O primeiro é relativamente fácil de entender, de acordo com Poggio, e temos
Sistemas experimentais e comerciais já projetados que são razoavelmente bem-sucedidos no enfrentamento de faces. 99 estes são
usado como parte de sistemas de segurança para controlar a entrada de pessoal e em caixas eletrônicos. Categorização - a capacidade de
diferenciar, por exemplo, entre uma pessoa e um carro ou entre um cachorro e uma gata é uma questão mais complexa, embora
recentemente o progresso foi feito. 100
As camadas iniciais (em termos de evolução) do sistema visual são em grande parte um sistema feedforward (sem feedback) em
quais recursos cada vez mais sofisticados são detectados. Poggio e Maximilian Riesenhuber escrevem que "neurônios únicos
no córtex inferotemporal posterior do macaco pode ser sintonizado com ... um dicionário de milhares de formas complexas. "
[Link] 126/349
10/03/2021 ************************************************* ** *
A evidência de que o reconhecimento visual usa um sistema feedforward durante o reconhecimento inclui estudos MEG que mostram o
sistema visual humano leva cerca de 150 milissegundos para detectar um objeto. Isso corresponde à latência de detecção de recursos
células no córtex inferotemporal, de modo que não parece haver tempo para o feedback desempenhar um papel nesses
decisões.
Experimentos recentes usaram uma abordagem hierárquica em que os recursos são detectados para serem analisados por camadas posteriores
do sistema. 101 A partir de estudos em macacos macacos, os neurônios no córtex inferotemporal parecem responder a
características complexas de objetos nos quais os animais são treinados. Embora a maioria dos neurônios responda apenas a um determinado
vista do objeto, alguns são capazes de responder em perspectiva. Outras pesquisas sobre o sistema visual do
Macaque Monkey inclui estudos sobre muitos tipos específicos de células, padrões de conectividade e descrições de alto nível de
fluxo de informações. 102
A literatura extensa apóia o uso do que chamo de "hipótese e teste" no reconhecimento de padrões mais complexos
tarefas. O córtex adivinha o que está vendo e, em seguida, determina se as características do que está realmente
o campo de visão corresponde à sua hipótese. 103 Muitas vezes estamos mais focados na hipótese do que no teste real, que
Explica por que as pessoas geralmente veem e ouvem o que esperam perceber, em vez do que realmente está lá. Hipótese
e teste "também é uma estratégia útil em nossos sistemas de reconhecimento de padrões baseados em computador.
Embora tenhamos a ilusão de receber imagens de alta resolução de nossos olhos, o que o nervo óptico realmente
envia para o cérebro são apenas contornos e pistas sobre pontos de interesse em nosso campo visual. Nós, então, essencialmente alucinamos
o mundo a partir de memórias corticais que interpretam uma série de filmes de resolução extremamente baixa que chegam em paralelo
canais. Em um estudo de 2001 publicado na Nature, Frank S. Werblin, professor de biologia molecular e celular da
A Universidade da Califórnia em Berkeley e o estudante de doutorado Boton Roska, MD, mostraram que o nervo óptico carrega dez
até doze canais de saída, cada um dos quais transportando apenas informações mínimas sobre uma determinada cena. 104 Um grupo do que
são chamados de células ganglionares enviam informações apenas sobre as bordas (mudanças no contraste). Outro. grupo detecta apenas grandes
áreas de cor uniforme, enquanto um terceiro grupo é sensível apenas aos fundos por trás das figuras de interesse.
Página 158
[Link] 127/349
10/03/2021 ************************************************* ** *
Mesmo que pensemos que vemos o mundo tão completamente, o que estamos recebendo são apenas dicas, limites no espaço e
tempo ", diz Werblin." Essas 12 fotos do mundo constituem todas as informações que teremos sobre o que está disponível
Ali, e a partir dessas 12 fotos, tão esparsas, reconstruímos a riqueza do mundo visual. Estou curioso como
a natureza selecionou esses 12 filmes simples e como podem ser suficientes para nos fornecer todas as informações
parece que precisamos. "Essas descobertas prometem ser um grande avanço no desenvolvimento de um sistema artificial que poderia substituir
O olho, a retina e o processamento inicial do nervo óptico.
No capítulo 3, mencionei o trabalho do pioneiro da robótica Hans Moravec, que fez engenharia reversa no
Processamento de imagens feito pela retina e pelas primeiras regiões de processamento visual do cérebro. Por mais de trinta anos
Moravec tem construído sistemas para emular a capacidade de nosso sistema visual de construir representações do
mundo. Só recentemente é que o poder de processamento suficiente está disponível nos microprocessadores para replicar este
detecção de características de nível humano, e Moravec está aplicando suas simulações de computador a uma nova geração de robôs que
pode navegar por ambientes complexos não planejados com visão de nível humano. 105
Carver Mead foi o pioneiro no uso de chips neurais especiais que utilizam transistores em seus análogos nativos
modo, que pode fornecer emulação muito eficiente da natureza analógica do processamento neural. Mead demonstrou um
chip que executa as funções da retina e as primeiras transformações no nervo óptico usando esta abordagem. 106
Um tipo especial de reconhecimento visual é a detecção de movimento, uma das áreas de foco do Instituto Max Planck de
Biologia em Tubingen, Alemanha. O modelo básico de pesquisa é simples: compare o sinal em um receptor com um tempo
sinal atrasado no receptor adjacente. 107 Este modelo funciona para certas velocidades, mas leva ao resultado surpreendente que
Página 159
Acima de uma certa velocidade, aumentos na velocidade I de um objeto observado irão diminuir a resposta deste movimento
detector. Resultados experimentais em animais (com base no comportamento e análise de I, saídas neuronais) e humanos (com base
sobre as percepções relatadas) corresponderam estreitamente ao modelo.
O hipocampo é vital para aprender novas informações e armazenar memórias de longo prazo. Ted Berger e seu
colegas da University of Southern California mapearam os padrões de sinal desta região estimulando fatias de
hipocampo de rato com sinais elétricos milhões de vezes para determinar qual entrada produziu uma saída correspondente. 108
Eles então desenvolveram um modelo matemático em tempo real das transformações realizadas pelas camadas do hipocampo
e programou o modelo em um chip. 109 O plano deles é testar o chip em animais, primeiro desabilitando o correspondente
região do hipocampo, observando a falha de memória resultante e, em seguida, determinando se essa função mental pode ser
restaurado instalando seu chip hipocampal no lugar da região deficiente.
Em última análise, esta abordagem pode ser usada para substituir o hipocampo em pacientes afetados por derrames, epilepsia ou
Doença de Alzheimer. O chip estaria localizado no crânio do paciente, ao invés de dentro do cérebro, e seria
comunicar-se com o cérebro por meio de dois conjuntos de eletrodos, colocados em cada lado da seção danificada do hipocampo.
Um registraria a atividade elétrica proveniente do resto do cérebro, enquanto o outro enviaria o necessário
instruções de volta para o cérebro.
Outra região do cérebro que está sendo modelada e simulada é a região olivocerebelar, responsável pelo equilíbrio
e coordenar o movimento dos membros. O objetivo do grupo de pesquisa internacional envolvido neste esforço é aplicar
seu circuito olivocerebelar artificial para robôs militares, bem como para robôs que poderiam ajudar os deficientes. 110 um de seus
As razões para selecionar esta região do cérebro em particular foram que "está presente em todos os vertebrados - é praticamente a mesma de
do mais simples aos cérebros mais complexos ", explica Rodolfo Llinas, um dos pesquisadores e neurocientista da
Escola de Medicina da Universidade de Nova York. "O pressuposto é que é conservado [na evolução] porque incorpora um
solução muito inteligente. Como o sistema está envolvido na coordenação motora - e queremos ter uma máquina que tenha
controle do motor - então a escolha [do circuito a ser imitado] foi fácil. "
Um dos aspectos únicos de seu simulador é que ele usa circuitos analógicos. Semelhante ao trabalho pioneiro de Mead em
emulação analógica de regiões do cérebro, os pesquisadores descobriram um desempenho substancialmente maior com muito menos componentes
usando transistores em seu modo analógico nativo.
Um dos pesquisadores da equipe, Ferdinando Mussa-Ivaldi, neurocientista da Northwestern University, comentou.
sobre as aplicações de um circuito olivocerebelar artificial para deficientes: “Pense num paciente paralisado. É possível.
imaginar tantas tarefas comuns - como pegar um copo d'água, vestir-se, despir-se, transferir-se para um
cadeira de rodas - poderia ser realizada por assistentes robóticos, proporcionando maior independência ao paciente ”.
As operações de pensamento são como cargas de cavalaria em uma batalha - são estritamente limitadas em número, exigem
[Link] 128/349
10/03/2021 ************************************************* ** *
cavalos frescos, e só deve ser feito em momentos decisivos.
—A LFRED N ORTH W HITEHEAD
Mas a grande característica da inteligência em nível humano não é o que ela faz quando funciona, mas o que faz quando está
grudou.
—M ARVIN M INSKY
Página 160
L ILY T OMLIN
Por estar no topo da hierarquia neural, a parte do cérebro menos bem compreendida é o córtex cerebral. Esta
região, que consiste em seis camadas finas nas áreas mais externas dos hemisférios cerebrais, contém bilhões de
neurônios. De acordo com Thomas M. Bartol Jr. do Laboratório de Neurobiologia Computacional do Instituto Salk de
Biological Studies, "Um único milímetro cúbico de córtex cerebral pode conter cerca de 5 bilhões ... sinapses de
diferentes formas e tamanhos. O córtex é responsável pela percepção, planejamento, tomada de decisão e muito do que nós
considerar como pensamento consciente.
Nossa habilidade de usar a linguagem, outro atributo único de nossa espécie, parece estar localizada nesta região. A
dica intrigante sobre a origem da linguagem e uma mudança evolutiva chave que permitiu a formação deste
habilidade de distinção é a observação de que apenas alguns primatas, incluindo humanos e macacos, são capazes de usar um
espelho (real) para dominar habilidades. Os teóricos Giacomo Rizzolatti e Michael Arbib levantaram a hipótese de que a linguagem surgiu
de gestos manuais (que os macacos - e, claro, os humanos - são capazes). Executando gestos manuais
Requer a habilidade de correlacionar mentalmente o desempenho e a observação dos próprios movimentos das mãos. 111 deles
"hipótese do sistema espelho" é que a chave para a evolução da linguagem é uma propriedade chamada "paridade", que é a
entendendo que o gesto (ou enunciado) tem o mesmo significado para a parte que faz o gesto e para a festa
recebê-lo; ou seja, a compreensão de que o que você vê em um espelho é o mesmo (embora invertido da esquerda para a direita) que
o que é visto por outra pessoa que está observando você. Outros animais são incapazes de entender a imagem em um espelho neste
moda, e acredita-se que eles estão perdendo essa capacidade fundamental de implantar a paridade.
Um conceito intimamente relacionado é que a capacidade de imitar os movimentos (ou, no caso de bebês humanos, vocal
sons) de outros é fundamental para o desenvolvimento da linguagem. 112 A imitação requer a capacidade de quebrar uma observação
apresentação em partes, cada uma das quais pode então ser dominada por meio de refinamento recursivo e iterativo.
A recursão é a capacidade-chave identificada em uma nova teoria de competência linguística. No início de Noam Chomsky
teorias da linguagem em humanos, ele citou muitos atributos comuns que explicam as semelhanças nas línguas humanas.
Em um artigo de 2002 de Marc Hauser, Noam Chomsky e Tecumseh Fitch, os autores citam a atribuição única de
"recursão" como explicação para a faculdade de linguagem única da espécie humana. 113 Recursão é a capacidade de colocar
junte pequenas partes em um pedaço maior e, em seguida, use esse pedaço como uma parte em outra estrutura e para continuar este
processar iterativamente. Desta forma, somos capazes de construir as estruturas elaboradas de frases e parágrafos a partir de um
conjunto de palavras.
Outra característica fundamental do cérebro humano é a capacidade de fazer previsões, incluindo previsões sobre os resultados
de suas próprias decisões e ações. Alguns cientistas acreditam que a previsão é a função primária do córtex cerebral,
embora o cerebelo também desempenhe um papel importante na previsão do movimento.
Curiosamente, somos capazes de prever ou antecipar nossas próprias decisões. Trabalho do professor de fisiologia Benjamin
Libet da Universidade da Califórnia em Davis mostra que a atividade neural para iniciar uma ação realmente ocorre sobre um
um terço de segundo antes que o cérebro tome a decisão de agir. A implicação, de acordo com Libet, é que
a decisão é realmente uma ilusão, que "a consciência está fora do circuito". O cientista cognitivo e filósofo Daniel
Dennett descreve o fenômeno da seguinte forma: "A ação é originalmente precipitada em alguma parte do cérebro, e fora
transmitir os sinais aos músculos, parando no caminho para dizer a você, o agente consciente, o que está acontecendo (mas como todos os bons funcionários
Você está deixando, o desajeitado presidente, manter a ilusão de que tudo começou ”. 114
Um experimento relacionado foi conduzido recentemente em que neurofisiologistas estimularam eletronicamente pontos no
cérebro para induzir sentimentos emocionais particulares. Os sujeitos imediatamente criaram uma justificativa para experimentar
Essas emoções. Sabe-se há muitos anos que em pacientes cujos cérebros direito e esquerdo não estão mais conectados,
um lado do cérebro (geralmente o lado esquerdo mais verbal) irá criar explicações elaboradas ("confabulações") para
ações iniciadas pelo outro lado, como se o lado esquerdo fosse o agente de relações públicas do lado direito.
[Link] 129/349
10/03/2021 ************************************************* ** *
Página 161
A capacidade mais complexa do cérebro humano - o que considero sua tecnologia de ponta - é a nossa capacidade emocional
inteligência. Sentada desconfortavelmente no topo da hierarquia complexa e interconectada do nosso cérebro está a nossa capacidade de perceber
e responder apropriadamente à emoção, para interagir em situações sociais, para ter um senso moral, para entender a piada, e para
responder emocionalmente à arte e à música, entre outras funções de alto nível. Obviamente, funções de nível inferior de
percepção e análise alimentam o processamento emocional do nosso cérebro, mas estamos começando a entender as regiões de
o cérebro e até mesmo para modelar os tipos específicos de neurônios que lidam com esses problemas.
Esses insights recentes foram o resultado de nossas tentativas de entender como os cérebros humanos diferem daqueles de
outros mamíferos. A resposta é que as diferenças são leves, mas críticas, e nos ajudam a discernir como o cérebro
processa emoção e sentimentos relacionados. Uma diferença é que os humanos têm um córtex maior, refletindo nossa mais forte
capacidade de planejamento, tomada de decisão e outras formas de pensamento analítico. Outra característica distintiva chave é
Essas situações de carga emocional parecem ser tratadas por células especiais chamadas células fusiformes, que são encontradas apenas em
humanos e alguns grandes macacos. Essas células neurais são grandes, com longos filamentos neurais chamados dendritos apicais que
conectar sinais extensos de muitas outras regiões do cérebro. Este tipo de interconexão "profunda", na qual certos
neurônios fornecem conexões em várias regiões, é um recurso que ocorre cada vez mais à medida que subimos o
escada evolutiva. Não é surpreendente que as células fusiformes, envolvidas como estão no manejo da emoção e da moral
julgamento, teria essa forma de profunda interconexão, dada a complexidade de nossas reações emocionais.
O que é surpreendente, no entanto, é quão poucas células fusiformes existem nesta pequena região: apenas cerca de 80.000 no corpo humano
cérebro (cerca de 45.000 no hemisfério direito e 35.000 no hemisfério esquerdo). Esta disparidade parece explicar
A percepção de que a inteligência emocional é território do cérebro direito, embora a desproporção seja modesta.
Os gorilas têm cerca de 16.000 dessas células, os bonobos, cerca de 2.100, e os chimpanzés, cerca de 1.800. Outros mamíferos carecem
eles completamente.
Página 162
[Link] 130/349
10/03/2021 ************************************************* ** *
Página 163
Dr. Arthur Craig, do Barrow Neurological Institute em Phoenix, recentemente forneceu uma descrição do
arquitetura das células fusiformes. 115 Entradas do corpo (estimadas em centenas de megabits por segundo), incluindo
nervos da pele, músculos, órgãos e outras áreas fluem para a medula espinhal superior. Estes carregam mensagens sobre
toque, temperatura, níveis de ácido (por exemplo, ácido láctico nos músculos), o movimento dos alimentos através do sistema gastrointestinal
tratado, e muitos outros tipos de informação. Esses dados são processados por meio do tronco cerebral e do mesencéfalo. Células-chave
neurônios chamados Lamina 1 criam um mapa do corpo que representa seu estado atual, não muito diferente das telas usadas pelo voo
controladores para rastrear aviões.
A informação então flui através de uma região do tamanho de uma noz chamada núcleo ventromedial posterior (VMpo), que
aparentemente calcula reações complexas a estados corporais como "isso tem um gosto terrível", "que fedor" ou "aquela luz
o toque é estimulante. ”A informação cada vez mais sofisticada termina em duas regiões do córtex chamadas ínsula.
Essas estruturas, do tamanho de dedos pequenos, estão localizadas nos lados esquerdo e direito do córtex. Craig descreve o
VMpo e as duas regiões da ínsula como "um sistema que representa o eu material".
Embora os mecanismos ainda não sejam compreendidos, essas regiões são críticas para a autoconsciência e complicadas
emoções. Eles também são muito menores em outros animais. Por exemplo, o VMpo tem aproximadamente o tamanho de um grão de areia em
macacos macaque e ainda menores em animais de nível inferior. Essas descobertas são consistentes com um consenso crescente
que nossas emoções estão intimamente ligadas a áreas do cérebro que contêm mapas do corpo, uma visão promovida pelo Dr.
Antonio Damasio, da Universidade de Iowa. 116 Eles também são consistentes com a visão de que uma grande parte do nosso pensamento
é direcionado para nossos corpos: protegendo e aprimorando-os, bem como atendendo a suas inúmeras necessidades e desejos.
Muito recentemente, outro nível de processamento do que começou como informação sensorial do corpo foi
descoberto. Os dados das duas regiões da ínsula vão para uma pequena área na frente da ínsula direita chamada de
córtex frontoinsular. Esta é a região que contém as células fusiformes, e as varreduras de tMRI revelaram que é particularmente
ativo quando uma pessoa está lidando com emoções de alto nível, como amor, raiva, tristeza e desejo sexual. Situações
[Link] 131/349
10/03/2021 ************************************************* ** *
que ativam fortemente as células fusiformes incluem quando um sujeito olha para seu parceiro romântico ou ouve seu filho chorar.
Os antropólogos acreditam que as células fusiformes fizeram sua primeira aparição dez a quinze milhões de anos atrás, no ainda
ancestral comum não descoberto de macacos e primeiros hominídeos (a família dos humanos) e aumentou rapidamente em número
cerca de cem mil anos atrás. Curiosamente, as células fusiformes não existem em humanos recém-nascidos, mas começam a
aparecem apenas por volta dos quatro meses de idade e aumentam significativamente de um a três anos. Capacidade das crianças para
lidar com questões morais e perceber emoções de nível superior como o amor se desenvolve durante esse mesmo período de tempo.
As células fusiformes ganham seu poder da profunda interconexão de seus longos dendritos apicais com muitos outros
regiões do cérebro. As emoções de alto nível que as células fusiformes processam são afetadas, portanto, por todas as nossas percepções e
regiões cognitivas. Será difícil, portanto, fazer a engenharia reversa dos métodos exatos das células do fuso até que tenhamos
melhores modelos das muitas outras regiões às quais se conectam. No entanto, é notável como poucos neurônios parecem
envolver-se exclusivamente com essas emoções. Temos cinquenta bilhões de neurônios no cerebelo que lidam com habilidade
formação, bilhões no córtex que realizam as transformações para percepção e planejamento racional, mas apenas cerca de
Oitenta mil células fusiformes lidando com emoções de alto nível. É importante ressaltar que as células fusiformes não são
Resolver problemas de forma racional, razão pela qual não temos controle racional sobre nossas respostas à música ou sobre
apaixonado. O resto do cérebro está fortemente envolvido, no entanto, na tentativa de dar sentido ao nosso misterioso alto nível
emoções.
—K EVIN W ARWICK
Página 164
Compreender os métodos do cérebro humano nos ajudará a projetar máquinas semelhantes de inspiração biológica. Outro
aplicação importante será a interface de nossos cérebros com computadores, o que eu acredito que se tornará um
Fusão cada vez mais íntima nas próximas décadas.
A Agência de Projetos de Pesquisa Avançada de Defesa já está gastando US $ 24 milhões por ano em investigações diretas
interfaces entre cérebro e computador. Conforme descrito acima (consulte a seção "O Sistema Visual" na pág. 185), Tomaso
Poggio e James DiCarlo do MIT, junto com Christof Koch do California Institute of Technology (Caltech), são
tentar desenvolver modelos de reconhecimento de objetos visuais e como essas informações são codificadas. Estes poderiam
eventualmente, será usado para transmitir imagens diretamente para nossos cérebros.
Miguel Nicolelis e seus colegas da Duke University implantaram sensores nos cérebros de macacos, permitindo que o
animais para controlar um robô apenas através do pensamento. A primeira etapa do experimento envolveu ensinar os macacos a
controlar um cursor em uma tela com um joystick. Os cientistas coletaram um padrão de sinais de EEGs (sensores cerebrais) e
Posteriormente, fez com que o cursor respondesse aos padrões apropriados em vez de aos movimentos físicos do joystick.
Os macacos aprenderam rapidamente que o joystick não estava mais funcionando e que eles podiam controlar o cursor apenas
pensamento. Este sistema de "detecção de pensamento" foi então conectado a um robô, e os macacos foram capazes de aprender como
controlar os movimentos do robô apenas com seus pensamentos. Ao obter feedback visual sobre o desempenho do robô, o
os macacos foram capazes de aperfeiçoar o controle do pensamento sobre o robô. O objetivo desta pesquisa é fornecer uma
sistema para humanos paralisados que lhes permitirá controlar seus membros e meio ambiente.
Um desafio chave na conexão de implantes neurais a neurônios biológicos é que os neurônios geram células gliais, que
Cerque um objeto "estranho" na tentativa de proteger o cérebro. Ted Berger e seus colegas estão desenvolvendo
revestimentos que parecerão biológicos e, portanto, atrairão em vez de repelir neurônios próximos.
Outra abordagem que está sendo buscada pelo Instituto Max Planck de Ciências Cognitivas e do Cérebro Humano em Munique
está fazendo interface direta com nervos e dispositivos eletrônicos. Um chip criado pela Infineon permite que os neurônios cresçam em um
substrato que fornece contato direto entre nervos e sensores e estimuladores eletrônicos. Trabalho semelhante em um
"neurochip" na Caltech demonstrou comunicação bidirecional e não invasiva entre neurônios e eletrônicos. 117
Já aprendemos como fazer a interface de implantes neurais instalados cirurgicamente. Em implantes cocleares (ouvido interno),
foi descoberto que o nervo auditivo se reorganiza para interpretar corretamente o sinal multicanal do
implantar. Um processo semelhante parece ocorrer com o implante de estimulação cerebral profunda usado para pacientes com Parkinson.
Os neurônios biológicos nas proximidades deste implante cerebral aprovado pela FDA recebem sinais do dispositivo eletrônico
e respondem como se tivessem recebido sinais dos neurônios biológicos que já foram funcionais. Versões recentes
do implante da doença de Parkinson fornecem a capacidade de baixar o software atualizado diretamente para o implante
fora do paciente.
Homo sapiens, a primeira espécie verdadeiramente livre, está prestes a encerrar a seleção natural, a força que fez
nós .... [então] devemos olhar profundamente dentro de nós mesmos e decidir o que desejamos nos tornar.
[Link] 132/349
10/03/2021 ************************************************* ** *
—EO W ILSON , C ONSILIENCE : T HE U NITY OF K NOWLEDGE , 1998
Nós sabemos o que somos, mas não sabemos o que podemos ser.
—W ILLIAM S HAKESPEARE
O mais importante é o seguinte: Tobe capaz de, a qualquer momento, sacrificar o que somos pelo que poderíamos
tornar-se.
—C HARLES D UBOIS
Página 165
Alguns observadores expressaram preocupação com o fato de que, à medida que desenvolvemos modelos, simulações e extensões para o cérebro humano,
arriscar não entender realmente o que estamos mexendo e os delicados equilíbrios envolvidos. Autor W. French
Anderson escreve:
Podemos ser como o menino que adora desmontar coisas. Ele é inteligente o suficiente para desmontar um relógio,
e talvez até brilhante o suficiente para colocá-lo de volta no lugar para que funcione. Mas e se ele tentar "melhorá-lo"? ...
O menino pode entender o que é visível, mas não consegue entender os cálculos precisos de engenharia que
determinar exatamente o quão forte cada mola deve ser .... As tentativas de sua parte para melhorar o relógio irão
provavelmente só prejudicá-lo ... temo ... nós também não entendemos realmente o que faz as [vidas] que estamos consertando
com carrapato. 118
A preocupação de Anderson, no entanto, não reflete o escopo do amplo e árduo esforço de dezenas de milhares
de cientistas do cérebro e da computação para testar metodicamente os limites e capacidades dos modelos e simulações antes
levando-os para a próxima etapa. Não estamos tentando desmontar e reconfigurar os trilhões de partes do cérebro sem
uma análise detalhada em cada etapa. O processo de compreensão dos princípios de funcionamento do cérebro está em andamento
por meio de uma série de modelos cada vez mais sofisticados derivados de dados cada vez mais precisos e de alta resolução.
À medida que o poder computacional para emular o cérebro humano se aproxima - estamos quase lá com os supercomputadores -
os esforços para escanear e sentir o cérebro humano e para construir modelos de trabalho e simulações dele estão se acelerando. Como
com todas as outras projeções neste livro, é fundamental compreender a natureza exponencial do progresso neste campo. eu
frequentemente encontramos colegas que argumentam que levará um século ou mais antes que possamos compreender em detalhes o
métodos do cérebro. Tal como acontece com tantas projeções científicas de longo prazo, esta é baseada em uma visão linear do futuro
e ignora a aceleração inerente do progresso, bem como o crescimento exponencial de cada tecnologia subjacente.
Essas visões excessivamente conservadoras também são frequentemente baseadas em uma subestimação da amplitude da
Realizações, até mesmo por profissionais da área.
As ferramentas de digitalização e detecção estão dobrando sua resolução geral espacial e temporal a cada ano. Scanning-
os tempos de largura de banda, preço-desempenho e reconstrução de imagem também estão tendo um crescimento exponencial comparável. Esses
As tendências são verdadeiras para todas as formas de varredura: varredura totalmente não invasiva, varredura in vivo com um crânio exposto,
e varredura destrutiva. Bancos de dados de informações de escaneamento do cérebro e construção de modelos também estão dobrando de tamanho.
Uma vez ao ano.
Demonstramos que nossa capacidade de construir modelos detalhados e simulações de trabalho de porções subcelulares,
neurônios e extensas regiões neurais seguem de perto a disponibilidade das ferramentas e dados necessários. O
desempenho de neurônios e porções subcelulares de neurônios muitas vezes envolve complexidade substancial e numerosos
não linearidades, mas o desempenho de agrupamentos neurais e regiões neuronais é frequentemente mais simples do que suas partes constituintes.
Temos ferramentas matemáticas cada vez mais poderosas, implementadas em softwares de computador eficazes, que são capazes de
modelar com precisão esses tipos de complexos hierárquicos, adaptativos, semi-aleatórios, auto-organizáveis e altamente não lineares
sistemas. Nosso sucesso até o momento em modelar efetivamente várias regiões importantes do cérebro mostra a eficácia de
esta abordagem.
A geração de ferramentas de digitalização agora emergentes irá, pela primeira vez, fornecer resolução espacial e temporal
capaz de observar em tempo real o desempenho de dendritos, espinhas e sinapses individuais. Essas ferramentas irão
Leve rapidamente a uma nova geração de modelos e simulações de alta resolução.
Quando a era do nanobot chegar na década de 2020, seremos capazes de observar todas as características relevantes do sistema neural
desempenho com resolução muito alta de dentro do próprio cérebro. Enviando bilhões de nanobots através de seus capilares
nos permitirá escanear de forma não invasiva um cérebro inteiro em funcionamento em tempo real. Já criamos efetivo (embora
modelos ainda incompletos) de regiões extensas do cérebro com as ferramentas relativamente rudimentares de hoje. Dentro de vinte anos, nós
terá um aumento de pelo menos um milhão de vezes no poder computacional e uma resolução de digitalização amplamente melhorada e
largura de banda. Portanto, podemos ter certeza de que teremos as ferramentas computacionais e de coleta de dados necessárias para o
2020 para modelar e simular todo o cérebro, o que tornará possível combinar os princípios de funcionamento de
[Link] 133/349
10/03/2021 ************************************************* ** *
Página 166
inteligência humana com as formas de processamento de informações inteligentes que derivamos de outras pesquisas de IA.
Também nos beneficiaremos da força inerente das máquinas em armazenar, recuperar e compartilhar rapidamente
quantidade de informações. Estaremos, então, em posição de implementar esses poderosos sistemas híbridos em sistemas computacionais
plataformas que excedem em muito as capacidades da arquitetura relativamente fixa do cérebro humano.
A Escalabilidade da Inteligência Humana. Em resposta à preocupação de Hofstadter sobre se a inteligência humana é justa
Acima ou abaixo do limite necessário para "autocompreensão", o ritmo acelerado da engenharia reversa do cérebro
Deixa claro que não há limites para nossa capacidade de compreender a nós mesmos - ou qualquer outra coisa, por falar nisso. A chave
à escalabilidade da inteligência humana está nossa capacidade de construir modelos de realidade em nossa mente. Esses modelos podem ser
recursivo, o que significa que um modelo pode incluir outros modelos, que podem incluir modelos ainda mais refinados, sem limite. Pra
Por exemplo, um modelo de uma célula biológica pode incluir modelos do núcleo, ribossomos e outros sistemas celulares. Por sua vez,
O modelo do ribossomo pode incluir modelos de seus componentes submoleculares e, em seguida, até os átomos e
partículas subatômicas e forças que o compõem.
Nossa capacidade de compreender sistemas complexos não é necessariamente hierárquica. Um sistema complexo como uma célula ou o
o cérebro humano não pode ser compreendido simplesmente dividindo-o em subsistemas constituintes e seus componentes. Nós
têm ferramentas matemáticas cada vez mais sofisticadas para a compreensão de sistemas que combinam ordem e caos - e
Há muito em uma célula e no cérebro - e para a compreensão das complexas interações que desafiam a lógica
demolir.
Nossos computadores, que estão se acelerando, têm sido uma ferramenta crítica para que possamos lidar com cada vez mais
modelos complexos, que de outra forma seríamos incapazes de imaginar apenas com nossos cérebros. Claramente, a preocupação de Hofstadter
seria correto se estivéssemos limitados apenas a modelos que poderíamos manter em nossas mentes sem tecnologia para nos ajudar.
O fato de nossa inteligência estar logo acima do limite necessário para compreender a si mesma resulta de nossa habilidade nativa, combinada
com as ferramentas de nossa própria criação, para imaginar, refinar, estender e alterar modelos abstratos - e cada vez mais sutis - de
nossos próprios sistemas.
- D AVID V ICTOR DE T RANSCEND , G ODLING ' S G LOSSARY , DEFINIÇÃO DE " UPLOAD "
Uma aplicação mais controversa do que o cenário de escanear o cérebro para entendê-lo é escanear o cérebro para carregar
isso . Carregar um cérebro humano significa escanear todos os seus detalhes salientes e, em seguida, reinstanciar esses detalhes em um
substrato computacional adequadamente poderoso. Este processo capturaria toda a personalidade, memória, habilidades de uma pessoa,
e história.
Se estivermos realmente captando os processos mentais de uma pessoa em particular, a mente reinstanciada precisará de um corpo,
Uma vez que muito do nosso pensamento é direcionado para as necessidades e desejos físicos. Como discutirei no capítulo 5, no momento
temos as ferramentas para capturar e recriar um cérebro humano com todas as suas sutilezas, teremos muitas opções para
Corpos do século XXI para humanos não biológicos e humanos biológicos que se valem de extensões
à nossa inteligência. A versão 2.0 do corpo humano incluirá corpos virtuais em ambientes virtuais completamente realistas
ambientes, corpos físicos baseados em nanotecnologia e muito mais.
No capítulo 3, discuti minhas estimativas para os requisitos de memória e computacionais para simular o
cérebro. Embora eu tenha estimado que 10 16 cps de computação e 10 13 bits de memória são suficientes para emular humanos
Níveis de inteligência, minhas estimativas para os requisitos de upload foram maiores: 10 19 cps e 10 18 bits, respectivamente.
A razão para as estimativas mais altas é que as mais baixas são baseadas nos requisitos para recriar regiões do
cérebro em níveis humanos de desempenho, enquanto os superiores são baseados na captura dos detalhes salientes de cada um de nossos
Página 167
aproximadamente 10 11 neurônios e 10 14 conexões interneuronais. Assim que o upload for viável, provavelmente descobriremos que
Soluções híbridas são adequadas. Por exemplo, provavelmente descobriremos que é suficiente simular um certo suporte básico
funções como o processamento de sinal de dados sensoriais em uma base funcional (conectando módulos padrão) e
reservamos a captura de detalhes do subneurônio apenas para as regiões que são verdadeiramente responsáveis pela personalidade individual e
Habilidades. No entanto, usaremos nossas estimativas mais altas para esta discussão.
Os recursos computacionais básicos (10 19 cps e 10 18 bits) estarão disponíveis por mil dólares no início
2030, cerca de uma década depois dos recursos necessários para simulação funcional. Os requisitos de digitalização para
[Link] 134/349
10/03/2021 ************************************************* ** *
carregar também é mais assustador do que "meramente" recriar os poderes gerais da inteligência humana. Em teoria um
poderia carregar um cérebro humano, capturando todos os detalhes necessários, sem necessariamente compreender o cérebro
plano geral. Na prática, entretanto, é improvável que funcione. Compreender os princípios de operação do ser humano
o cérebro revelará quais detalhes são essenciais e quais detalhes devem ser desordenados. Precisamos saber, para
exemplo, quais moléculas nos neurotransmissores são críticas e se precisamos capturar os níveis gerais, posicione
e localização e / ou forma molecular. Como discuti acima, estamos apenas aprendendo, por exemplo, que é a posição de
moléculas de actina e a forma das moléculas ePEB na sinapse que são fundamentais para a memória. Não será possível
Confirme quais detalhes são cruciais sem ter confirmado nosso entendimento da teoria da operação. Que
A confirmação será na forma de uma simulação funcional da inteligência humana que passa no teste de Turing, que eu
acredito que acontecerá em 2029 119
Para capturar este nível de detalhe, será necessária uma varredura de dentro do cérebro usando nanobots, a tecnologia para
que estará disponível no final de 2020. Assim, o início de 2030 é um prazo razoável para o
pré-requisitos de desempenho, memória e varredura do cérebro para upload. Como qualquer outra tecnologia, vai demorar algum
Refinamento iterativo para aperfeiçoar essa capacidade, portanto, o final da década de 2030 é uma projeção conservadora para o sucesso
Enviando.
Devemos salientar que a personalidade e as habilidades de uma pessoa não residem apenas no cérebro, embora esse seja o seu
localização principal. Nosso sistema nervoso se estende por todo o corpo, e o sistema endócrino (hormonal) tem uma
influência, também. A grande maioria da complexidade, no entanto, reside no cérebro, que é a localização da maior parte
do sistema nervoso. A largura de banda das informações do sistema endócrino é bastante baixa, porque o determinante
fator são os níveis gerais de hormônios, não a localização precisa de cada molécula de hormônio.
A confirmação do marco de upload será na forma de um teste de Turing "Ray Kurzweil" ou "Jane Smith", em
outras palavras, convencendo um juiz humano de que a recriação carregada é indistinguível do original específico
pessoa. Nessa altura, enfrentaremos algumas complicações na elaboração das regras de qualquer teste de Turing. Uma vez que não biológico
inteligência terá passado no teste de Turing original anos antes (por volta de 2029), se permitirmos um teste não biológico
equivalente humano a ser um juiz? Que tal um humano aprimorado? Humanos não aprimorados podem se tornar cada vez mais difíceis
encontrar. Em qualquer caso, será uma ladeira escorregadia para definir o aprimoramento, já que muitos níveis diferentes de extensão biológica
a inteligência estará disponível no momento em que tivermos feito uploads. Outra questão será que os humanos que procuramos
o upload não se limitará à sua inteligência biológica. No entanto, o upload da parte não biológica da inteligência
será relativamente simples, uma vez que a facilidade de copiar a inteligência do computador sempre representou um dos
pontos fortes dos computadores.
Uma pergunta que se coloca é: com que rapidez precisamos examinar o sistema nervoso de uma pessoa? Isso claramente não pode ser feito
instantaneamente, e mesmo se fornecêssemos um nanobot para cada neurônio, levaria tempo para reunir os dados. 1
pode, portanto, objetar que, como o estado de uma pessoa está mudando durante o processo de coleta de dados, o upload
as informações não refletem com precisão aquela pessoa em um instante no tempo, mas sim ao longo de um período de tempo, mesmo que apenas um
fração de segundo. 120 Considere, no entanto, que esse problema não interfere na aprovação de um upload de "Jane Smith"
Teste de Turing. Quando nos encontramos no dia-a-dia, somos reconhecidos como nós mesmos, embora possa
se passaram dias ou semanas desde o último encontro. Se um upload for suficientemente preciso para recriar o estado de uma pessoa
Dentro da quantidade de mudança natural que uma pessoa passa em uma fração de segundo ou mesmo alguns minutos, isso vai
ser suficiente para qualquer propósito concebível. Alguns observadores interpretaram a teoria de Roger Penrose da ligação entre
computação quântica e consciência (ver capítulo 9) para significar que o upload é impossível porque uma pessoa
Página 168
o "estado quântico" terá mudado muitas vezes durante o período de varredura. Mas gostaria de salientar que meu quantum
estado mudou muitas vezes no tempo que levei para escrever esta frase, e ainda me considero o mesmo
pessoa (e ninguém parece estar se opondo).
O vencedor do Prêmio Nobel Gerald Edelman aponta que há uma diferença entre uma capacidade e uma descrição de
essa capacidade. A fotografia de uma pessoa é diferente da própria pessoa, mesmo que a "fotografia" seja muito alta
resolução e tridimensional. No entanto, o conceito de upload vai além da digitalização de resolução extremamente alta,
que podemos considerar a "fotografia" na analogia de Edelman. A varredura precisa capturar todos os detalhes importantes,
mas também precisa ser instanciado em um meio computacional de trabalho que tenha os recursos do original (embora
que as novas plataformas não biológicas certamente serão muito mais capazes). Os detalhes neurais precisam interagir com um
outro (e com o mundo exterior) da mesma forma que no original. Uma analogia comparável é a
comparação entre um programa de computador que reside em um disco de computador (uma imagem estática) e um programa que é
executando ativamente em um computador adequado (uma entidade dinâmica de interação). Tanto a captura de dados quanto a reinstanciação de
uma entidade dinâmica constitui o cenário de upload.
Talvez a questão mais importante seja se um cérebro humano carregado é realmente você. Mesmo se o
o upload passa em um teste de Turing personalizado e é considerado indistinguível de você, ainda é possível perguntar
se o upload é da mesma pessoa ou de uma nova pessoa. Afinal, a pessoa original ainda pode existir. Vou adiar estes
perguntas essenciais até o capítulo 7.
Na minha opinião, o elemento mais importante no upload será a transferência gradual de nossa inteligência, personalidade,
e habilidades para a parte não biológica de nossa inteligência. Já temos uma variedade de implantes neurais. Na década de 2020
usaremos nanobots para começar a aumentar nossos cérebros com inteligência não biológica, começando com a "rotina"
Funções de processamento sensorial e memória, passando para a formação de habilidades, reconhecimento de padrões e análise lógica.
[Link] 135/349
10/03/2021 ************************************************* ** *
Na década de 2030, a porção não biológica de nossa inteligência irá predominar, e na década de 2040, como indiquei em
capítulo 3, a porção não biológica será bilhões de vezes mais capaz. Embora possamos reter o
porção biológica por um período de tempo, ela se tornará cada vez menos conseqüente. Então teremos efetivamente
carregamos a nós mesmos, embora gradualmente, nunca percebendo a transferência. Não haverá "velho Ray" e "novo Ray", apenas
um Ray cada vez mais capaz. Embora eu acredite que o upload como no cenário discutido de varredura e transferência repentina
nesta seção será uma característica do nosso mundo futuro, é esta progressão gradual, mas inexorável, para muito superior
pensamento não biológico que transformará profundamente a civilização humana.
S IGMUND F REUD : Quando você fala sobre engenharia reversa do cérebro humano, de qual cérebro você está falando?
Cérebro de um homem? De mulher? Uma criança? O cérebro de um gênio? Um indivíduo retardado? Um "sábio idiota"? UMA
artista talentoso? Um assassino em série?
R AY : No final das contas, estamos falando sobre todos os itens acima. Existem princípios básicos de operação que precisamos
Entenda como funciona a inteligência humana e suas diversas habilidades constituintes. Dado o cérebro humano
plasticidade, nossos pensamentos literalmente criam nossos cérebros por meio do crescimento de novas espinhas, sinapses, dendritos e
até mesmo neurônios. Como resultado, os lobos parietais de Einstein - a região associada à imagem visual e
121
pensamento matemático - tornou-se grandemente ampliado. No entanto, há muito espaço em nossos crânios, então
embora Einstein tocasse música, ele não era um músico de classe mundial. Picasso não escreveu grande poesia, e então
sobre. À medida que recriamos o cérebro humano, não seremos limitados em nossa capacidade de desenvolver cada habilidade. Não teremos
comprometer 'uma área para melhorar outra.
Também podemos obter um insight sobre nossas diferenças e uma compreensão da disfunção humana. O que deu errado
com o assassino em série? Afinal, deve ter algo a ver com seu cérebro. Este tipo de desastroso
o comportamento claramente não é o resultado de indigestão.
M OLLY 2004: Sabe, duvido que seja apenas o cérebro com que nascemos que explica nossas diferenças. E quanto ao nosso
lutas pela vida e todas essas coisas que estou tentando aprender?
R AY : Sim, bem, isso também faz parte do paradigma, não é? Temos cérebros que podem aprender, começando quando aprendemos a
caminhar e conversar quando estudamos química na faculdade.
Página 169
M ARVIN M INSKY : É verdade que educar nossos IAs será uma parte importante do processo, mas podemos automatizar muito
disso e bastante acelerá-lo. Além disso, lembre-se de que quando uma IA aprende algo, pode rapidamente compartilhar isso
conhecimento com muitos outros AIs.
R AY : Eles terão acesso a todo o nosso conhecimento em crescimento exponencial na Web, que incluirá habitáveis,
Ambientes de realidade virtual de imersão onde eles podem interagir uns com os outros e com humanos biológicos
que estão se projetando nesses ambientes.
S IGMUND : Esses AIs ainda não têm corpos. Como ambos apontamos, a emoção humana e muito do nosso pensamento são
dirigido a nossos corpos e para atender suas necessidades sensuais e sexuais.
R AY : Quem disse que eles não terão corpos? Como discutirei na seção do corpo humano versão 2.0 no capítulo 6, teremos
os meios de criar corpos não biológicos, mas semelhantes aos humanos, bem como corpos virtuais em realidade virtual.
S IGMUND : Mas um corpo virtual não é um corpo real.
R AY : A palavra "virtual" é um tanto infeliz. Implica "não real", mas a realidade é que um corpo virtual é
tão real quanto um corpo físico em todas as maneiras que importam. Considere que o telefone é uma realidade virtual auditiva.
Ninguém sente que sua voz neste ambiente de realidade virtual não é uma voz "real". Com meu corpo físico hoje,
Não sinto diretamente o toque de alguém no meu braço. Meu cérebro recebe sinais processados iniciados pelo nervo
terminações em meu braço, que passam pela medula espinhal, pelo tronco cerebral e até a ínsula
regiões. Se meu cérebro - ou o cérebro de uma IA - receber sinais comparáveis do toque virtual de alguém em um virtual
braço, não há diferença perceptível.
M ARVIN : Lembre-se de que nem todos os IAs precisarão de corpos humanos.
R AY : Certamente. Como humanos, apesar de alguma plasticidade, nossos corpos e cérebros têm uma arquitetura relativamente fixa.
M OLLY 2004: Sim, isso se chama ser humano, algo com o qual você parece ter problemas.
R AY : Na verdade, muitas vezes tenho problemas com todas as limitações e manutenção que meu corpo da versão 1.0 requer,
para não mencionar todas as limitações do meu cérebro. Mas aprecio as alegrias do corpo humano. Meu ponto é que
IAs podem e terão o equivalente a corpos humanos em ambientes de realidade real e virtual. Como Marvin
ressalta, porém, que não se limitarão apenas a isso.
M OLLY 2104: Não são apenas as IAs que serão liberadas das limitações dos corpos da versão 1.a. Humanos de biologia
Origin terá a mesma liberdade em realidade real e virtual.
G EORGE 2048: Lembre-se de que não haverá uma distinção clara entre IAs e humanos.
M OLLY 2104: Sim, exceto para os MOSHs (Principalmente Substrato Humano Original), é claro.
[Link] 136/349
10/03/2021 ************************************************* ** *
Página 170
CAPÍTULO CINCO
GNR
Três revoluções sobrepostas
Existem poucas coisas das quais a geração atual se orgulha com mais justiça do que as maravilhosas melhorias
que ocorrem diariamente em todos os tipos de aparelhos mecânicos .... Mas o que aconteceria se a tecnologia
continuou a evoluir muito mais rapidamente do que os reinos animal e vegetal? Isso iria nos deslocar em
a supremacia da terra? Assim como o reino vegetal foi lentamente desenvolvido a partir do mineral, e como
maneira como o animal sobreviveu ao vegetal, então agora, nestas últimas eras, um reino inteiramente novo
surgiram, dos quais até agora só vimos o que um dia será considerado os protótipos antediluvianos de
a corrida .... Estamos diariamente dando [às máquinas] maior poder e fornecendo todos os tipos de dispositivos engenhosos
aquele poder auto-regulador e auto-atuante que será para eles o que o intelecto tem sido para a raça humana.
-S AMUEL B UTLER , 1863 (F NOSSAS os Y ORELHAS Um PÓS p UBLICAÇÃO DE D Arwin ' S t HE o RIGEM DOS
S PECIES
Quem será o sucessor do homem? Ao que a resposta é: nós mesmos estamos criando nossos próprios sucessores. Cara
se tornará para a máquina o que o cavalo e o cachorro são para o homem; a conclusão é que as máquinas são, ou
estão se tornando, animados.
T A primeira metade do século XXI será caracterizada por três revoluções sobrepostas - na Genética,
Nanotecnologia e Robótica. Isso dará início ao que me referi anteriormente como Época Cinco, o início da
a Singularidade. Estamos nos primeiros estágios da revolução "G" hoje. Compreendendo a informação
processos subjacentes à vida, estamos começando a aprender a reprogramar nossa biologia para alcançar a eliminação virtual de
doença, expansão dramática do potencial humano e extensão radical da vida. Hans Moravec ressalta, no entanto, que não
importa o quão bem-sucedido possamos ajustar nossa biologia baseada no DNA, os humanos continuarão sendo "robôs de segunda classe", o que significa
Essa biologia nunca será capaz de se igualar ao que seremos capazes de projetar, uma vez que entendamos completamente os princípios da biologia
de operação. 2
A revolução "N" nos permitirá redesenhar e reconstruir - molécula por molécula - nossos corpos e cérebros e o
mundo com o qual interagimos, indo muito além das limitações da biologia. A revolução iminente mais poderosa é
"R": robôs de nível humano com inteligência derivada da nossa, mas reprojetada para exceder em muito as capacidades humanas.
R representa a transformação mais significativa, porque a inteligência é a "força" mais poderosa do universo.
A inteligência, se suficientemente avançada, é, bem, inteligente o suficiente para antecipar e superar quaisquer obstáculos que se encontrem em seu
caminho.
Embora cada revolução resolva os problemas das transformações anteriores, também apresenta novos perigos. G
irá superar as antigas dificuldades da doença e do envelhecimento, mas estabelecer o potencial para novos vírus virais de bioengenharia
ameaças. Assim que N estiver totalmente desenvolvido, seremos capazes de aplicá-lo para nos proteger de todos os perigos biológicos, mas
criará a possibilidade de seus próprios perigos auto-replicantes, que serão muito mais poderosos do que qualquer coisa biológica.
Podemos nos proteger desses perigos com R totalmente desenvolvido, mas o que vai nos proteger de patológicos
inteligência que excede a nossa? Tenho uma estratégia para lidar com essas questões, que discuto no final do
[Link] 137/349
10/03/2021 ************************************************* ** *
Página 171
capítulo 8. Neste capítulo, no entanto, examinaremos como a Singularidade se desdobrará por meio dessas três sobreposições
revoluções: G, N e R.
Não escapou à nossa observação que o emparelhamento específico que postulamos sugere imediatamente um possível
mecanismo de cópia do material genético.
3
J AMES W ATSON E F RANCIS C RICK
Após três bilhões de anos de evolução, temos diante de nós o conjunto de instruções que transporta cada um de nós do
ovo unicelular da idade adulta até o túmulo.
4
O -D o R . R OBERT W ATERSON , eu NTERNACIONAL H UMAN L ENOME S EQUENCE C ONSORTIUM
Subjacente a todas as maravilhas da vida e miséria da doença estão os processos de informação, essencialmente programas de software,
que são surpreendentemente compactos. Todo o genoma humano é um código binário sequencial contendo apenas cerca de oito
Cem milhões de bytes de informação. Como mencionei antes, quando suas redundâncias maciças são removidas usando
técnicas convencionais de compressão, ficamos com apenas trinta a cem milhões de bytes, o equivalente ao tamanho
de um programa de software contemporâneo médio. 5 Este código é suportado por um conjunto de máquinas bioquímicas que traduzem
essas sequências lineares (unidimensionais) de "letras" de DNA em cadeias de blocos de construção simples chamados de aminoácidos,
que, por sua vez, são dobradas em proteínas tridimensionais, que constituem todas as criaturas vivas, de bactérias a humanos.
(Os vírus ocupam um nicho entre a matéria viva e a não viva, mas também são compostos de fragmentos de DNA ou RNA.)
Esta máquina é essencialmente um replicador em nanoescala autorreplicante que constrói a hierarquia elaborada de estruturas e
Sistemas complexos crescentes que uma criatura viva compreende.
Computador da vida
Nos estágios iniciais da evolução, as informações foram codificadas nas estruturas de cada vez mais complexas
moléculas orgânicas baseadas em carbono. Depois de bilhões de anos, a biologia desenvolveu seu próprio computador para armazenar e
manipulando dados digitais com base na molécula de DNA. A estrutura química da molécula de DNA foi primeiro
descrito por JD Watson e FHC Crick em 1953 como uma dupla hélice que consiste em um par de fios de
polinucleotídeos. 6 Terminamos a transcrição do código genético no início deste século. Nós estamos agora
começando a entender a química detalhada dos processos de comunicação e controle pelos quais o DNA
comanda a reprodução através de outras moléculas complexas e estruturas celulares como o RNA mensageiro
(mRNA), RNA de transferência (tRNA) e ribossomos.
No nível de armazenamento de informações, o mecanismo é surpreendentemente simples. Apoiado por uma torção de açúcar
estrutura de fosfato, a molécula de DNA contém até vários milhões de degraus, cada um dos quais é codificado com
uma letra tirada de um alfabeto de quatro letras; cada linha está, portanto, codificando dois bits de dados em um formato unidimensional
código digital. O alfabeto consiste em quatro pares de bases: adenina-timina, timina-adenina, citosina-
guanina e guanina-citosina.
Enzimas especiais podem copiar as informações em cada degrau, dividindo cada par de bases e reunindo dois
moléculas de DNA idênticas combinando novamente os pares de bases quebrados. Outras enzimas realmente verificam a validade de
a cópia verificando a integridade do par de bases correspondentes. Com essas etapas de cópia e validação, este
O sistema de processamento de dados químicos comete apenas cerca de um erro em dez bilhões de combinações de pares de bases. 7 mais adiante
Códigos de redundância e correção de erros são incorporados aos próprios dados digitais, resultando em mutações significativas
de erros de replicação de par de bases são raros. A maioria dos erros resultantes da taxa de erro de um em dez bilhões
Página 172
resultará no equivalente a um erro de "paridade", que pode ser detectado e corrigido por outros níveis do
sistema, incluindo a correspondência com o cromossomo correspondente, o que pode evitar que o bit incorreto
causando qualquer dano significativo. 8 Pesquisas recentes mostraram que o mecanismo genético detecta tais
erros na transcrição do cromossomo Y masculino, combinando cada gene do cromossomo Y contra uma cópia em
o mesmo cromossomo. 9 De vez em quando, um erro de transcrição resultará em uma mudança benéfica que
a evolução virá a favor.
[Link] 138/349
10/03/2021 ************************************************* ** *
Em um processo tecnicamente chamado de tradução, outra série de produtos químicos colocou este elaborado programa digital
em ação através da construção de proteínas. São as cadeias de proteínas que dão a cada célula sua estrutura, comportamento e
inteligência. Enzimas especiais desenrolam uma região do DNA para a construção de uma proteína específica. Uma fita de mRNA é
Criado copiando a sequência de bases exposta. O mRNA tem essencialmente uma cópia de uma parte do
Sequência de letras de DNA. O mRNA viaja para fora do núcleo e para dentro do corpo celular. O código do mRNA é então
lido por uma molécula de ribossomo, que representa o jogador molecular central no drama da
reprodução. Uma parte do ribossomo atua como uma cabeça de gravador, "lendo" a sequência de dados
codificado na sequência de base do mRNA. As "letras" (bases) são agrupadas em palavras de três letras chamadas
códons, com um códon para cada um dos vinte aminoácidos possíveis, os blocos básicos de construção da proteína. UMA
ribossomo lê os códons do mRNA e, em seguida, usando o tRNA, monta uma cadeia de proteína um amino
ácido de cada vez.
A etapa final notável neste processo é o dobramento da cadeia unidimensional de "contas" de aminoácidos
em uma proteína tridimensional. Simular este processo ainda não foi viável devido ao enorme
complexidade das forças interagentes de todos os átomos envolvidos. Supercomputadores programados para ficarem online
na época da publicação deste livro (2005) são esperados ter a capacidade computacional para
simular o enovelamento de proteínas, bem como a interação de uma proteína tridimensional com outra.
O dobramento de proteínas, junto com a divisão celular, é uma das danças notáveis e intrincadas da natureza no
criação e recriação da vida. Moléculas "chaperonas" especializadas protegem e orientam as fitas de amina-ácido
à medida que assumem suas configurações precisas de proteínas tridimensionais. Até um terço do formado
Página 173
as moléculas de proteína são dobradas incorretamente. Essas proteínas desfiguradas devem ser destruídas imediatamente ou eles
vai se acumular rapidamente, interrompendo as funções celulares em muitos níveis.
Em circunstâncias normais, assim que uma proteína mal dobrada é formada, ela é marcada por um transportador
molécula, ubiquitina, e escoltada para um proteossomo especializado, onde é quebrada de volta em seu
aminoácidos componentes para reciclagem em proteínas novas (corretamente dobradas). Conforme as células envelhecem, no entanto, elas
produzir menos da energia necessária para o funcionamento ideal deste mecanismo. Acúmulo desses malformados
proteínas se agregam em partículas chamadas de protofibrilas, que são a base de processos de doenças que levam
à doença de Alzheimer e outras aflições. 10
A capacidade de simular a valsa tridimensional de interações em nível atômico vai acelerar muito a nossa
conhecimento de como as sequências de DNA controlam a vida e a doença. Estaremos então em posição de simular rapidamente
drogas que intervêm em qualquer uma das etapas deste processo, acelerando assim o desenvolvimento de drogas e o
criação de medicamentos altamente direcionados que minimizam os efeitos colaterais indesejados.
É função das proteínas montadas realizar as funções da célula e, por extensão, o
organismo. Uma molécula de hemoglobina, por exemplo, que tem a função de transportar oxigênio dos pulmões para
Tecidos corporais são criados quinhentos trilhões de vezes a cada segundo no corpo humano. Com mais de cinco
Cem aminoácidos em cada molécula de hemoglobina, que chegam a 1,5 10 19 (quinze bilhões de bilhões) "lidos".
operações a cada minuto pelos ribossomos apenas para a fabricação de hemoglobina.
Em alguns aspectos, o mecanismo bioquímico da vida é notavelmente complexo e intrincado. Em outras formas, é
notavelmente simples. Apenas quatro pares de bases fornecem o armazenamento digital para toda a complexidade da vida humana e
todas as outras vidas como a conhecemos. Os ribossomos constroem cadeias de proteínas agrupando trigêmeos de pares de bases para
selecione sequências de apenas vinte aminoácidos. Os próprios ácidos aminados são relativamente simples,
[Link] 139/349
10/03/2021 ************************************************* ** *
Consistindo em um átomo de carbono com suas quatro ligações ligadas a um átomo de hidrogênio, um grupo amino (-NH 2 ), um
grupo de ácido carboxílico (-COOH) e um grupo orgânico que é diferente para cada aminoácido. O orgânico
grupo para alanina, por exemplo, tem apenas quatro átomos (CH 3 -) para um total de treze átomos. Um dos mais
aminoácidos complexos, arginina (que desempenha um papel vital na saúde das células endoteliais em nossas artérias)
tem apenas dezessete átomos em seu grupo orgânico para um total de vinte e seis átomos. Estas vinte moléculas simples
Os fragmentos são os blocos de construção de toda a vida.
As cadeias de proteínas, então, controlam tudo o mais: a estrutura das células ósseas, a capacidade das células musculares de
flexionar e agir em conjunto com outras células musculares, todas as complexas interações bioquímicas que ocorrem em
a corrente sanguínea e, é claro, a estrutura e o funcionamento do cérebro. 11
Já existem informações suficientes hoje para desacelerar os processos de doenças e envelhecimento a ponto de os baby boomers
como eu, pode permanecer com boa saúde até o pleno florescimento da revolução da biotecnologia, que será em si um
ponte para a revolução da nanotecnologia (consulte Recursos e informações de contato, p. 489). In Fantastic Voyage: Live
Longo Enough to Live Forever, que fui coautor de Terry Grossman, MD, um importante especialista em longevidade, discutimos
Essas três pontes para a extensão radical da vida (conhecimento de hoje, biotecnologia e nanotecnologia). 12 eu escrevi lá:
"Enquanto alguns de meus contemporâneos podem ficar satisfeitos em abraçar o envelhecimento graciosamente como parte do ciclo da vida, isso é
não é minha opinião. Pode ser 'natural', mas não vejo nada de positivo em perder minha agilidade mental, acuidade sensorial, física
flexibilidade, desejo sexual ou qualquer outra habilidade humana. Eu vejo a doença e a morte em qualquer idade como uma calamidade, como problemas para
ser superado. "
A ponte um envolve a aplicação agressiva do conhecimento que agora possuímos para desacelerar drasticamente o envelhecimento e
Reverta os processos de doenças mais importantes, como doenças cardíacas, câncer, diabetes tipo 2 e derrame. Você pode em
efeito, reprogramar sua bioquímica, pois hoje temos o conhecimento, se aplicado de forma agressiva, para superar nossa
patrimônio genético na grande maioria dos casos. "Está principalmente em seus genes" só é verdade se você tomar a atitude passiva de costume
atitude em relação à saúde e ao envelhecimento.
Página 174
Minha própria história é instrutiva. Mais de vinte anos atrás, fui diagnosticado com diabetes tipo 2. O convencional
o tratamento piorou minha condição, então abordei esse desafio de saúde do meu ponto de vista de inventor. eu
mergulhei na literatura científica e criei um programa único que reverteu meu diabetes com sucesso.
Em 1993, escrevi um livro sobre saúde (A solução de 10% para uma vida saudável) sobre esta experiência, e continuo hoje a ser
livre de qualquer indicação ou complicação desta doença. 13
Além disso, quando eu tinha vinte e dois anos, meu pai morreu de doença cardíaca aos cinquenta e oito anos, e eu herdei
Seus genes me predispõem a esta doença. Vinte anos atrás, apesar de seguir as orientações públicas da americana
Heart Association, meu colesterol estava na casa dos 200s (deveria estar bem abaixo de 180), meu HDL (alta densidade
lipoproteína, o colesterol "bom") abaixo de 30 (deve ser acima de 50), e minha homocisteína (uma medida da saúde
de um processo bioquímico denominado metilação) era um 11 prejudicial à saúde (deveria estar abaixo de 7,5). Seguindo uma longevidade
programa que Grossman e eu desenvolvemos, meu nível atual de colesterol é 130, meu HDL é 55, minha homocisteína é 6,2,
minha proteína C reativa (uma medida da inflamação no corpo) é um 0,01 muito saudável, e todos os meus outros índices (para
doenças cardíacas, diabetes e outras condições) estão em níveis ideais. 14
Quando eu tinha quarenta anos, minha idade biológica estava em torno de trinta e oito. Embora eu esteja agora com 56 anos, um teste abrangente
do meu envelhecimento biológico (medindo várias sensibilidades sensoriais, capacidade pulmonar, tempos de reação, memória e outras
testes) conduzidos na clínica de longevidade de Grossman mediram minha idade biológica aos quarenta. 15 Embora ainda não haja um
Consenso sobre como medir a idade biológica, minhas pontuações nesses testes corresponderam às normas populacionais para essa idade. Então,
De acordo com este conjunto de testes, não envelheci muito nos últimos dezesseis anos, o que é confirmado por muitos
exames de sangue que faço, assim como a maneira como me sinto.
Esses resultados não são acidentais; Tenho sido muito agressivo ao reprogramar minha bioquímica. Eu levo 250
Suplementos (pílulas) por dia e recebem meia dúzia de terapias intravenosas a cada semana (basicamente suplementos nutricionais
entregue diretamente na minha corrente sanguínea, evitando assim o meu trato gastrointestinal). Como resultado, as reações metabólicas em meu
corpo são completamente diferentes do que seriam de outra forma. 16 Abordando isso como um engenheiro, eu avalio dezenas de
níveis de nutrientes (como vitaminas, minerais e gorduras), hormônios e subprodutos metabólicos em meu sangue e outros
amostras corporais (como cabelo e saliva). No geral, meus níveis estão onde eu quero que estejam, embora eu sempre esteja bem-
ajustar meu programa com base na pesquisa que conduzo com Grossman. 17 Embora meu programa possa parecer extremo, é
na verdade conservador - e ótimo (com base no meu conhecimento atual). Grossman e eu pesquisamos extensivamente
Cada uma das centenas de terapias que utilizo para segurança e eficácia. Eu fico longe de ideias que não foram comprovadas ou
parecem ser arriscados (o uso de hormônio de crescimento humano, por exemplo).
Consideramos o processo de reversão e superação da perigosa progressão da doença como uma guerra. Como em qualquer
Guerra é importante mobilizar todos os meios de inteligência e armamento que podem ser aproveitados, jogando tudo
temos no inimigo. Por esta razão, defendemos que os principais perigos - como doenças cardíacas, câncer, diabetes, derrame,
e envelhecimento - ser atacado em várias frentes. Por exemplo, nossa estratégia para prevenir doenças cardíacas é adotar dez
[Link] 140/349
10/03/2021 ************************************************* ** *
diferentes terapias de prevenção de doenças cardíacas que atacam cada um dos fatores de risco conhecidos.
Ao adotar essas estratégias multifacetadas para cada processo de doença e cada processo de envelhecimento, até mesmo para os baby boomers
como eu, pode permanecer com boa saúde até o florescimento total da revolução da biotecnologia (que chamamos de "ponte
dois "), que já está em seus estágios iniciais e atingirá seu auge na segunda década deste século.
A biotecnologia fornecerá os meios para realmente mudar seus genes: não apenas bebês projetados serão viáveis, mas
designer baby boomers. Também seremos capazes de rejuvenescer todos os tecidos e órgãos do seu corpo, transformando o seu
células da pele em versões jovens de todos os outros tipos de células. Já, o desenvolvimento de novos medicamentos está visando precisamente a chave
etapas no processo de aterosclerose (a causa da doença cardíaca), formação de tumor cancerígeno e o processo metabólico
processos subjacentes a cada doença principal e processo de envelhecimento.
Podemos realmente viver para sempre? Um defensor enérgico e perspicaz de parar o processo de envelhecimento, mudando o
processos de informação subjacentes à biologia é Aubrey de Gray, um cientista do departamento de genética de Cambridge
Universidade. De Gray usa a metáfora da manutenção de uma casa. Quanto tempo dura uma casa? A resposta obviamente
depende de quão bem você cuida disso. Se você não fizer nada, logo haverá um vazamento no telhado, a água e o
Página 175
elementos irão invadir e, eventualmente, a casa se desintegrará. Mas se você cuidar proativamente da estrutura, repare
todos os danos, enfrentar todos os perigos e reconstruir ou renovar peças de vez em quando usando novos materiais e tecnologias,
A vida útil da casa pode ser essencialmente estendida sem limites.
O mesmo vale para nossos corpos e cérebros. A única diferença é que, embora entendamos totalmente os métodos
subjacente à manutenção de uma casa, ainda não compreendemos totalmente todos os princípios biológicos da vida. Mas com
nossa compreensão cada vez maior dos processos bioquímicos e das vias da biologia, estamos ganhando rapidamente
esse conhecimento. Estamos começando a entender o envelhecimento, não como uma progressão única e inexorável, mas como um grupo de
processos. Estratégias estão surgindo para reverter totalmente cada uma dessas progressões do envelhecimento, usando diferentes combinações de
técnicas de biotecnologia.
De Gray descreve seu objetivo como "senescência insignificante projetada" - impedir que o corpo e o cérebro se tornem
mais frágil e propenso a doenças à medida que envelhece. 18 Como ele explica, "Todo o conhecimento básico necessário para desenvolver
senescência insignificante projetada já está em nossa posse - principalmente só precisa ser reconstituída. " 19 De Gray
acredita que iremos demonstrar ratos "robustamente rejuvenescidos" - ratos que são funcionalmente mais jovens do que antes de serem tratados
e com a extensão de vida para prová-lo - dentro de dez anos, e ele aponta que essa conquista terá um dramático
efeito na opinião pública. Demonstrando que podemos reverter o processo de envelhecimento em um animal que compartilha 99 por cento de
nossos genes desafiarão profundamente a sabedoria comum de que o envelhecimento e a morte são inevitáveis. Uma vez rejuvenescimento robusto
for confirmado em um animal, haverá uma enorme pressão competitiva para traduzir esses resultados em terapias humanas,
que deve aparecer cinco a dez anos depois.
O diversificado campo da biotecnologia é alimentado por nosso progresso acelerado na engenharia reversa da informação
processos subjacentes à biologia e por um arsenal crescente de ferramentas que podem modificar esses processos. Por exemplo, droga
já foi uma questão de descobrir substâncias que produziam algum resultado benéfico sem efeitos colaterais excessivos.
Este processo foi semelhante à descoberta de ferramentas dos primeiros humanos, que se limitava a simplesmente encontrar rochas e outros
implementos que podem ser usados para fins úteis. Hoje estamos aprendendo as vias bioquímicas precisas que
fundamentam os processos de doença e envelhecimento e são capazes de projetar drogas para realizar missões precisas no nível molecular
nível. O escopo e a escala desses esforços são vastos.
Outra abordagem poderosa é começar com a espinha dorsal da informação da biologia: o genoma. Com recentemente desenvolvido
tecnologias de genes, estamos prestes a ser capazes de controlar como os genes se expressam. A expressão do gene é o
processo pelo qual componentes celulares específicos (especificamente RNA e os ribossomos) produzem proteínas de acordo com um
projeto genético específico. Embora cada célula humana tenha o complemento total dos genes do corpo, uma célula específica, como
uma célula da pele ou uma célula da ilhota pancreática obtém suas características apenas da pequena fração de informação genética relevante
a esse tipo de célula específico. 20 O controle terapêutico desse processo pode ocorrer fora do núcleo da célula, por isso é
Mais fácil de implementar do que as terapias que requerem acesso dentro dela.
A expressão do gene é controlada por peptídeos (moléculas compostas por sequências de até cem aminoácidos)
e cadeias curtas de RNA. Agora estamos começando a aprender como esses processos funcionam. 21 Muitas novas terapias agora em
o desenvolvimento e os testes são baseados na manipulação deles para desligar a expressão de genes causadores de doenças ou
para ativar genes desejáveis que, de outra forma, não podem ser expressos em um determinado tipo de célula.
RNAi (interferência de RNA). Uma nova ferramenta poderosa chamada interferência de RNA (RNAi) é capaz de desligar
genes bloqueando seu mRNA, impedindo-os de criar proteínas. Desde doenças virais, câncer e muitos
outras doenças usam a expressão gênica em algum ponto crucial de seu ciclo de vida, isso promete ser um grande avanço
tecnologia. Os pesquisadores constroem segmentos curtos de DNA de fita dupla que combinam e se prendem a porções do
RNA que são transcritos de um gene alvo. Com sua capacidade de criar proteínas bloqueada, o gene é efetivamente
silenciado. Em muitas doenças genéticas, apenas uma cópia de um determinado gene é defeituosa. Uma vez que obtemos duas cópias de cada gene,
um de cada pai, bloqueando o gene causador da doença, deixa um gene saudável para produzir a proteína necessária. Se
Ambos os genes são defeituosos, o RNAi poderia silenciar os dois, mas então um gene saudável teria que ser inserido. 22
[Link] 141/349
10/03/2021 ************************************************* ** *
Página 176
Terapias celulares. Outra linha importante de ataque é fazer crescer nossas próprias células, tecidos e até órgãos inteiros e
Introduzi-los em nossos corpos sem cirurgia. Um grande benefício desta técnica de "clonagem terapêutica" é que nós
será capaz de criar esses novos tecidos e órgãos a partir de versões de nossas células que também se tornaram mais jovens por meio do
Campo emergente da medicina de rejuvenescimento. Por exemplo, seremos capazes de criar novas células do coração a partir das células da pele e
introduzi-los no sistema através da corrente sanguínea. Com o tempo, as células cardíacas existentes serão substituídas por essas
novas células, e o resultado será um coração "jovem" rejuvenescido, fabricado com o próprio DNA de uma pessoa. Eu discuto isso
abordagem para regenerar nossos corpos abaixo.
Chips de Gene. Novas terapias são apenas uma maneira pela qual a crescente base de conhecimento da expressão genética irá dramaticamente
impactar nossa saúde. Desde a década de 1990, microarrays, ou chips com menos de dez centavos, têm sido usados para estudar e comparar
padrões de expressão de milhares de genes por vez. 23 As possíveis aplicações da tecnologia são tão variadas e as
as barreiras tecnológicas foram reduzidas tanto que enormes bancos de dados agora são dedicados aos resultados do "faça-isso-
seu gene assistindo. " 24
O perfil genético agora está sendo usado para:
• Revolucione os processos de pesquisa e descoberta de drogas. Microarrays podem "não apenas confirmar o mecanismo
de ação de um composto "mas" discriminação entre compostos que atuam em etapas diferentes no mesmo
caminho. " 25
• Melhorar as classificações de câncer. Um estudo relatado na Science demonstrou a viabilidade de classificar alguns
leucemias "apenas no monitoramento da expressão gênica." Os autores também apontaram para um caso em que a expressão
Criação de perfis na correção de um diagnóstico incorreto. 26
• Identificar os genes, células e vias envolvidas em um processo, como envelhecimento ou tumorigênese. Por exemplo, por
correlacionando a presença de leucemia mieloblástica aguda e aumento da expressão de certos genes envolvidos com
morte celular programada, um estudo ajudou a identificar novos alvos terapêuticos. 27
• Determinar a eficácia de uma terapia inovadora. Um estudo relatado recentemente na Bone analisou o efeito de
reposição do hormônio do crescimento na expressão de fatores de crescimento semelhantes à insulina (IGFs) e metabolismo ósseo
marcadores. 28
• Testar a toxicidade de compostos em aditivos alimentares, cosméticos e produtos industriais de forma rápida e sem uso
animais. Esses testes podem mostrar, por exemplo, o grau em que cada gene foi ativado ou desativado por um testado
substância. 29
Terapia gênica somática (terapia gênica para células não reprodutivas). Este é o Santo Graal da bioengenharia, que irá
nos permitem mudar efetivamente os genes dentro do núcleo, "infectando-o" com novo DNA, essencialmente criando novos
genes. 30 O conceito de controlar a composição genética dos humanos é frequentemente associado à ideia de influenciar novos
gerações na forma de "bebês projetados". Mas a verdadeira promessa da terapia genética é realmente mudar nosso adulto
genes. 31 Estes podem ser projetados para bloquear genes que estimulam doenças indesejáveis ou introduzir novos que retardam
reduzir e até mesmo reverter os processos de envelhecimento.
Os estudos em animais que começaram nas décadas de 1970 e 1980 foram responsáveis pela produção de uma variedade de
animais, como gado, galinhas, coelhos e ouriços-do-mar. As primeiras tentativas de terapia genética humana foram realizadas em
1990. O desafio é transferir DNA terapêutico para células-alvo que serão então expressas no nível certo e em
a hora certa.
Considere o desafio envolvido em efetuar uma transferência de genes. Os vírus costumam ser o veículo de escolha. Muito tempo atras
os vírus aprenderam a entregar seu material genético às células humanas e, como resultado, causar doenças. Pesquisadores agora
simplesmente troque o material que um vírus descarrega nas células, removendo seus genes e inserindo os terapêuticos. Embora
A abordagem em si é relativamente fácil, os genes são muito grandes para passar para muitos tipos de células (como as células cerebrais). O
Página 177
O processo também é limitado no comprimento do DNA que pode carregar e pode causar uma resposta imune. E precisamente onde
o novo DNA se integra ao DNA da célula tem sido um processo amplamente incontrolável. 32
A injeção física (microinjeção) de DNA nas células é possível, mas proibitivamente cara. Avanços emocionantes
foram feitas recentemente, no entanto, em outros meios de transferência. Por exemplo, lipossomas - esferas de gordura com um aspecto aquoso
[Link] 142/349
10/03/2021 ************************************************* ** *
núcleo - pode ser usado como um "cavalo de Tróia molecular" para entregar genes às células cerebrais, abrindo assim a porta para o tratamento
de doenças como Parkinson e epilepsia. 33 Pulsos elétricos também podem ser empregados para fornecer uma variedade de moléculas
(incluindo proteínas de drogas, RNA e DNA) às células. 34 Ainda outra opção é embalar o DNA em "nanobolas" ultratininhas para
impacto máximo. 35
O principal obstáculo que deve ser superado para que a terapia gênica seja aplicada em humanos é o posicionamento adequado de um gene
em uma fita de DNA e monitoramento da expressão do gene. Uma solução possível é entregar um gene repórter de imagem
junto com o gene terapêutico. Os sinais de imagem permitiriam uma supervisão próxima tanto do posicionamento quanto do nível de
expressão. 36
Mesmo enfrentando esses obstáculos, a terapia gênica está começando a funcionar em aplicações humanas. Uma equipe liderada pela Universidade
do médico pesquisador de Glasgow, Andrew H. Baker, usou com sucesso adenovírus para "infectar" órgãos específicos e até mesmo
regiões específicas dentro dos órgãos. Por exemplo, o grupo foi capaz de direcionar a terapia gênica precisamente no endotélio
células, que revestem o interior dos vasos sanguíneos. Outra abordagem está sendo desenvolvida pela Celera Genomics, uma empresa
fundada por Craig Venter (o chefe do esforço privado para transcrever o genoma humano). Celera já
Demonstrou a capacidade de criar vírus sintéticos a partir de informações genéticas e planeja aplicar esses biodesenvolvidos
vírus à terapia genética. 37
Uma das empresas que ajudo a dirigir, a United Therapeutics, iniciou testes em humanos de entrega de DNA às células
através do novo mecanismo de células-tronco autólogas (do próprio paciente), que são capturadas de alguns frascos de seus
sangue. O DNA que direciona o crescimento de novos vasos sanguíneos pulmonares é inserido nos genes das células-tronco, e as células
são reinjetados no paciente. Quando as células-tronco geneticamente modificadas alcançam os minúsculos vasos sanguíneos pulmonares próximos
alvéolos do pulmão, eles começam a expressar fatores de crescimento para novos vasos sanguíneos. Em estudos com animais, isso foi revertido com segurança
hipertensão pulmonar, uma doença fatal e atualmente incurável. Com base no sucesso e segurança desses estudos, o
O governo canadense deu permissão para que os testes em humanos comecem no início de 2005.
Doenças degenerativas (progressivas) - doenças cardíacas, derrames, câncer, diabetes tipo 2, doenças hepáticas e renais -
são responsáveis por cerca de 90 por cento das mortes em nossa sociedade. Nossa compreensão dos principais componentes de
doenças degenerativas e envelhecimento humano estão crescendo rapidamente, e estratégias foram identificadas para interromper e até mesmo reverter
cada um desses processos. Em Fantastic Voyage , Grossman e eu descrevemos uma ampla gama de terapias agora em teste
pipeline que já demonstrou resultados significativos no ataque às principais etapas bioquímicas subjacentes ao
progresso dessas doenças.
Combatendo doenças cardíacas. Como um dos muitos exemplos, pesquisas interessantes estão sendo conduzidas com uma forma sintética de
Colesterol HDL denominado Apo-AI Milano recombinante (AAIM). Em testes com animais, AAIM foi responsável por um rápido e
Regressão dramática da placa aterosclerótica. 38 Em um estudo de fase 1 da FDA, que incluiu quarenta e sete sujeitos humanos,
A administração de AAIM por infusão intravenosa resultou em uma redução significativa (uma redução média de 4,2 por cento) em
placa após apenas cinco tratamentos semanais. Nenhuma outra droga jamais demonstrou a capacidade de reduzir a aterosclerose neste
rapidamente. 39
Outra droga interessante para reverter a aterosclerose agora em testes de fase 3 da FDA é o Torcetrapib da Pfizer. 40 esta droga
aumenta os níveis de HDL ao bloquear uma enzima que normalmente o decompõe. Pfizer está gastando um recorde de um bilhão
Dólares para testar a droga e planeja combiná-la com seu remédio mais vendido "estatina" (redutor do colesterol), o Lipitor.
Página 178
Superando o Câncer. Muitas estratégias estão sendo intensamente perseguidas para superar o câncer. Particularmente promissores são
vacinas contra o câncer destinadas a estimular o sistema imunológico a atacar as células cancerosas. Essas vacinas podem ser usadas como um
profilaxia para prevenir o câncer, como tratamento de primeira linha, ou para limpar as células cancerosas após outros tratamentos. 41
As primeiras tentativas relatadas para ativar a resposta imunológica de um paciente foram realizadas há mais de cem anos
atrás, com pouco sucesso. 42 Os esforços mais recentes se concentram em estimular as células dendríticas, as sentinelas do sistema imunológico,
para desencadear uma resposta imunológica normal. Muitas formas de câncer têm a oportunidade de proliferar porque, de alguma forma,
não acione essa resposta. As células dendríticas desempenham um papel fundamental porque percorrem o corpo, coletando peptídeos estranhos e
fragmentos de células e entregando-os aos nódulos linfáticos, que em resposta produzem um exército de células T preparadas para
eliminar os peptídeos marcados.
Alguns pesquisadores estão alterando genes de células cancerosas para atrair células T, com a suposição de que as células T estimuladas
então reconheceria outras células cancerosas que encontrassem. 43 Outros estão experimentando vacinas para expor o
células dendríticas a antígenos, proteínas únicas encontradas na superfície das células cancerosas. Um grupo usou pulsos elétricos para
fundir células tumorais e imunológicas para criar uma "vacina individualizada". 44 Um dos obstáculos para o desenvolvimento eficaz
vacinas é que atualmente ainda não identificamos muitos dos antígenos cancerígenos de que precisamos para desenvolver potentes
vacinas. 45
Bloquear a angiogênese - a criação de novos vasos sanguíneos - é outra estratégia. Este processo usa drogas para
desestimula o desenvolvimento de vasos sanguíneos, que um câncer emergente precisa para crescer além de um tamanho pequeno. Interessado em
[Link] 143/349
10/03/2021 ************************************************* ** *
a angiogênese disparou desde 1997, quando médicos do Dana Farber Cancer Center em Boston relataram que
Ciclos repetidos de endostatina, um inibidor da angiogênese, tiveram regressão completa dos tumores. 46 há
agora muitos medicamentos antiangiogênicos em ensaios clínicos, incluindo avastin e atrasentan. 47
Uma questão fundamental para o câncer, bem como para o envelhecimento, diz respeito às "contas" dos telômeros, sequências repetidas de DNA encontradas no
fim dos cromossomos. Cada vez que uma célula se reproduz, uma gota cai. Uma vez que uma célula se reproduz a ponto de todos
de suas contas de telômero foram gastas, essa célula não é mais capaz de se dividir e morrerá. Se pudéssemos reverter isso
processo, as células poderiam sobreviver indefinidamente. Felizmente, pesquisas recentes descobriram que apenas uma única enzima (telomerase)
é necessário para conseguir isso. 48 A parte complicada é administrar a telomerase de forma a não causar câncer. Câncer
as células possuem um gene que produz telomerase, o que efetivamente permite que se tornem imortais ao se reproduzir
indefinidamente. Uma estratégia-chave de combate ao câncer, portanto, envolve o bloqueio da capacidade das células cancerosas de gerar
telomerase. Isso pode parecer contradizer a ideia de estender os telômeros em células normais para combater esta fonte de
envelhecimento, mas atacar a telomerase das células cancerosas em um tumor emergente poderia ser feito sem necessariamente
comprometendo uma terapia de extensão de telômero ordenada para células normais. No entanto, para evitar complicações, tais
as terapias podem ser interrompidas durante um período de terapia do câncer.
Revertendo o envelhecimento
É lógico supor que no início da evolução da nossa espécie (e precursores da nossa espécie) a sobrevivência não teria
sido auxiliado - na verdade, teria sido comprometido - por indivíduos que viveram muito depois de seus anos de criação dos filhos.
Pesquisas recentes, no entanto, apóiam a chamada hipótese da avó, que sugere um contra-efeito. Universidade de
A antropóloga Rachel Caspari de Michigan e a San-Hee Lee da Universidade da Califórnia em Riverside encontraram evidências de que
a proporção de humanos que vivem para se tornarem avós (que nas sociedades primitivas costumam ter apenas trinta anos)
O aumento constante nos últimos dois milhões de anos, com um aumento de cinco vezes ocorrendo no Paleolítico Superior
(cerca de trinta mil anos atrás). Esta pesquisa foi citada para apoiar a hipótese de que a sobrevivência do ser humano
sociedades foram ajudadas por avós, que não só ajudaram na criação de famílias extensas, mas também transmitiram o
sabedoria acumulada dos mais velhos. Esses efeitos podem ser uma interpretação razoável dos dados, mas o aumento geral na
a longevidade também reflete uma tendência contínua em direção a uma expectativa de vida mais longa, que continua até hoje. Da mesma forma, apenas um
um número modesto de avós (e alguns avós) teria sido necessário para explicar os efeitos sociais que
os proponentes desta teoria alegaram, de modo que a hipótese não desafia significativamente a conclusão de que os genes que
com suporte significativo de extensão de vida não foram selecionados.
Página 179
O envelhecimento não é um processo único, mas envolve uma multiplicidade de mudanças. De Gray descreve sete processos-chave de envelhecimento
que estimulam a senescência, e ele identificou estratégias para reverter cada uma delas.
Mutações de DNA. 49 Geralmente, as mutações no DNA nuclear (o DNA nos cromossomos do núcleo) resultam em um
célula defeituosa que é eliminada rapidamente ou uma célula que simplesmente não funciona de maneira ideal. O tipo de mutação que é de
A principal preocupação (uma vez que leva ao aumento das taxas de mortalidade) é aquela que afeta a reprodução celular ordenada, resultando em
Câncer. Isso significa que se podemos curar o câncer usando as estratégias descritas acima, as mutações nucleares devem ser amplamente
tornado inofensivo. A estratégia proposta por De Grey para o câncer é preventiva: envolve o uso de terapia genética para remover
de todas as nossas células, os genes que os cânceres precisam ativar para manter seus telômeros durante a divisão. Esta
fará com que quaisquer tumores cancerígenos em potencial murchem antes que cresçam o suficiente para causar danos. Estratégias para
a exclusão e a supressão de genes já estão disponíveis e estão sendo rapidamente melhoradas.
Células tóxicas. Ocasionalmente, as células atingem um estado em que não são cancerígenas, mas ainda assim seria melhor para o corpo se
eles não sobreviveram. A senescência celular é um exemplo, assim como o excesso de células de gordura. Nestes casos, é mais fácil matar
Essas células do que tentar revertê-los para um estado saudável. Métodos estão sendo desenvolvidos para direcionar "genes suicidas" para
essas células e também marcá-las de uma forma que direcione o sistema imunológico para destruí-las.
Mutações mitocondriais. Outro processo de envelhecimento é o acúmulo de mutações nos treze genes do
mitocôndrias, as fábricas de energia da célula. 50 Esses poucos genes são essenciais para o funcionamento eficiente de nossas células
E sofrem mutações em uma taxa maior do que os genes no núcleo. Depois de dominarmos a terapia genética somática, poderíamos colocar
Múltiplas cópias desses genes no núcleo da célula, proporcionando redundância (backup) para tais genes vitais
em formação. O mecanismo já existe na célula para permitir que proteínas codificadas pelo núcleo sejam importadas para o
mitocôndrias, portanto, não é necessário que essas proteínas sejam produzidas nas próprias mitocôndrias. Na verdade, a maioria de
As proteínas necessárias para a função mitocondrial já são codificadas pelo DNA nuclear. Pesquisadores já foram
Bem-sucedido na transferência de genes mitocondriais para o núcleo em culturas de células.
Agregados intracelulares. As toxinas são produzidas dentro e fora das células. De Gray descreve estratégias usando
terapia genética somática para introduzir novos genes que irão quebrar o que ele chama de "agregados intracelulares" - toxinas
dentro das células. Foram identificadas proteínas que podem destruir virtualmente qualquer toxina, usando bactérias que podem digerir e
destruir materiais perigosos, desde TNT até dioxina.
Uma estratégia-chave sendo perseguida por vários grupos para combater materiais tóxicos fora da célula, incluindo
[Link] 144/349
10/03/2021 ************************************************* ** *
proteínas malformadas e placa amilóide (visto na doença de Alzheimer e outras condições degenerativas), é criar
vacinas que atuam contra suas moléculas constituintes. 51 Embora esta abordagem possa resultar no fato de o material tóxico ser
ingerido pelas células do sistema imunológico, podemos então usar as estratégias de combate aos agregados intracelulares descritas
acima para eliminá-lo.
Agregados extracelulares. AGEs (produtos finais de glicação avançada) resultam de reticulação indesejável de
moléculas como um efeito colateral do excesso de açúcar. Essas ligações cruzadas interferem com o funcionamento normal das proteínas e são
principais contribuintes para o processo de envelhecimento. Um medicamento experimental chamado ALT-711 (cloreto de fenacildimentiltiazólio)
pode dissolver essas ligações cruzadas sem danificar o tecido original. 52 Outras moléculas com esta capacidade também
foram identificados.
Perda e atrofia celular. Os tecidos do nosso corpo têm meios para substituir as células desgastadas, mas essa capacidade é limitada em
certos órgãos. Por exemplo, à medida que envelhecemos, o coração é incapaz de substituir suas células a uma taxa suficiente, por isso
compensa tornando as células sobreviventes maiores usando material fibroso. Com o tempo, isso faz com que o coração se torne menos
flexível e ágil. Uma estratégia primária aqui é implantar a clonagem terapêutica de nossas próprias células, conforme descrito abaixo.
Página 180
O progresso no combate a todas essas fontes de envelhecimento está se movendo rapidamente em modelos animais e tradução em humanos
seguir-se-ão terapias. As evidências do projeto genoma indicam que não mais do que algumas centenas de genes estão envolvidos
no processo de envelhecimento. Ao manipular esses genes, a extensão radical da vida já foi alcançada em animais mais simples.
Por exemplo, ao modificar genes no verme C. elegans que controlam seus níveis de insulina e hormônio sexual, o tempo de vida
dos animais de teste foi expandido seis vezes, para o equivalente a uma expectativa de vida de quinhentos anos para um ser humano. 53
Um cenário híbrido envolvendo bio e nanotecnologia contempla a transformação de células biológicas em computadores.
Essas células de "inteligência aprimorada" podem então detectar e destruir células cancerosas e patógenos ou até mesmo regenerar humanos
partes do corpo. O bioquímico de Princeton Ron Weiss modificou células para incorporar uma variedade de funções lógicas que são usadas
para computação básica. 54 Timothy Gardner da Boston University desenvolveu um switch lógico celular, outro básico
bloco de construção para transformar células em computadores. 55 Cientistas do MIT Media Lab desenvolveram maneiras de usar
comunicação sem fio para enviar mensagens, incluindo sequências intrincadas de instruções, para os computadores internos
células modificadas. 56 Weiss aponta que "uma vez que você tem a capacidade de programar células, você não precisa ser restringido por
o que as células já sabem fazer. Você pode programá-los para fazer coisas novas, em novos padrões. "
Um dos métodos mais poderosos de aplicação da maquinaria da vida envolve o controle da própria biologia reprodutiva
mecanismos sob a forma de clonagem. A clonagem será uma tecnologia chave - não para clonar humanos reais, mas para a vida
fins de extensão, na forma de "clonagem terapêutica". Este processo cria novos tecidos com telômeros "jovens"
células estendidas e corrigidas com DNA para substituir, sem cirurgia, tecidos ou órgãos defeituosos.
Todos os especialistas em ética responsáveis, inclusive eu, consideram a clonagem humana atualmente como antiética. O
As razões, no entanto, para mim, têm pouco a ver com as questões complicadas de manipular a vida humana. Em vez disso, o
a tecnologia de hoje simplesmente ainda não funciona de forma confiável. A técnica atual de fusão de um núcleo celular de um doador a um
O óvulo usando uma faísca elétrica simplesmente causa um alto nível de erros genéticos. 57 Esta é a principal razão pela qual a maioria dos
os fetos criados por este método não chegam ao termo. Mesmo aqueles que o fazem têm defeitos genéticos. Dolly the
Ovelhas desenvolveram um problema de obesidade na idade adulta, e a maioria dos animais clonados produzidos até agora tiveram
problemas de saúde imprevisíveis. 58
Os cientistas têm uma série de ideias para aperfeiçoar a clonagem, incluindo formas alternativas de fundir o núcleo e o óvulo
célula sem o uso de uma faísca elétrica destrutiva, mas até que a tecnologia seja comprovadamente segura, seria antiético
criar uma vida humana com grande probabilidade de graves problemas de saúde. Não há dúvida de que a clonagem humana irá
ocorrer, e ocorrer em breve, impulsionado por todos os motivos usuais, que vão desde seu valor publicitário até sua utilidade como um muito fraco
forma de imortalidade. Os métodos demonstráveis em animais avançados funcionarão muito bem em humanos. Uma vez
a tecnologia é aperfeiçoada em termos de segurança, as barreiras éticas serão fracas se existirem.
A clonagem é uma tecnologia significativa, mas a clonagem de humanos não é seu uso mais notável. Vamos primeiro abordar
suas aplicações mais valiosas e depois retorne à sua mais controversa.
Por que a clonagem é importante? O uso mais imediato para a clonagem é a reprodução aprimorada, oferecendo a capacidade de
reproduzir diretamente um animal com um conjunto desejável de características genéticas. Um exemplo poderoso é a reprodução de animais de
embriões transgênicos (embriões com genes estranhos) para produção farmacêutica. Um caso em questão: um promissor
O tratamento anticâncer é uma droga antiangiogênica chamada aaATIII, produzida no leite de cabras transgênicas. 59
Preservando Espécies Ameaçadas e Restaurando Extintas. Outra aplicação interessante é recriar animais
de espécies ameaçadas de extinção. Ao criopreservar as células dessas espécies, elas nunca precisam se extinguir. Será
eventualmente, será possível recriar animais de espécies recentemente extintas. Em 2001, os cientistas foram capazes de sintetizar
[Link] 145/349
10/03/2021 ************************************************* ** *
DNA do tigre da Tasmânia, então extinto há 65 anos, com a esperança de trazer essa espécie
de volta à vida. 60 Quanto às espécies extintas (por exemplo, dinossauros), é altamente duvidoso que encontraremos o
Página 181
DNA intacto exigido em uma única célula preservada (como no filme Jurassic Park ). É provável, no entanto, que nós
eventualmente será capaz de sintetizar o DNA necessário juntando as informações derivadas de múltiplos
fragmentos inativos.
Clonagem terapeutica. Talvez a aplicação emergente mais valiosa seja a clonagem terapêutica dos próprios órgãos. De
começando com as células da linha germinativa (herdadas dos óvulos ou espermatozóides e passadas para a descendência), os engenheiros genéticos podem
desencadeiam a diferenciação em diversos tipos de células. Porque a diferenciação ocorre durante a fase pré-fetal (ou seja,
antes da implantação de um feto), a maioria dos especialistas em ética acredita que este processo não levanta preocupações, embora o problema tenha
permaneceu altamente contencioso. 61
Engenharia de células somáticas humanas. Esta abordagem ainda mais promissora, que contorna a polêmica de usar
células-tronco fetais inteiramente, é denominado transdiferenciação; Ele cria novos tecidos com o próprio DNA de um paciente, convertendo
um tipo de célula (como uma célula da pele) em outro (como uma célula da ilhota pancreática ou uma célula do coração). 62 cientistas do
Os Estados Unidos e a Noruega tiveram recentemente sucesso na reprogramação de células do fígado para que se tornassem células do pâncreas. No
outra série de experimentos, as células da pele humana foram transformadas para assumir muitas das características do sistema imunológico
células do sistema e células nervosas. 63
Considere a pergunta: Qual é a diferença entre uma célula da pele e qualquer outro tipo de célula do corpo? Depois de tudo,
todos eles têm o mesmo DNA. Conforme observado acima, as diferenças são encontradas nos fatores de sinalização de proteínas, que incluem
fragmentos curtos de RNA e peptídeos, que agora estamos começando a entender. 64 Ao manipular essas proteínas, nós
pode influenciar a expressão do gene e enganar um tipo de célula para se tornar outro.
Aperfeiçoar esta tecnologia não apenas neutralizaria uma questão ética e política sensível, mas também ofereceria um ideal
solução de uma perspectiva científica. Se você precisa de células das ilhotas pancreáticas ou tecidos renais - ou mesmo um novo
coração - para evitar reações auto-imunes, você prefere obtê-los com seu próprio DNA em vez de
DNA de células germinativas de outra pessoa. Além disso, esta abordagem usa células da pele abundantes (do paciente), em vez
do que células-tronco raras e preciosas.
A transdiferenciação fará crescer diretamente um órgão com sua composição genética. Talvez o mais importante, o novo
O órgão pode ter seus telômeros totalmente estendidos até o comprimento original da juventude, de modo que o novo órgão seja efetivamente jovem
de novo. 65 Também podemos corrigir os erros de DNA acumulados, selecionando as células da pele adequadas (ou seja, aquelas sem
Erros de DNA) antes da transdiferenciação em outros tipos de células. Usando este método, um homem de oitenta anos poderia
ter seu coração substituído pelo mesmo coração de quando tinha, digamos, vinte e cinco anos.
Os tratamentos atuais para o diabetes tipo 1 requerem medicamentos anti-rejeição potentes que podem ter efeitos colaterais perigosos. 66
Com a engenharia de células somáticas, os diabéticos tipo 1 serão capazes de produzir células das ilhotas pancreáticas a partir de suas próprias células,
de células da pele (transdiferenciação) ou de células-tronco adultas. Eles estariam usando seu próprio DNA, e baseando-se em
um suprimento relativamente inesgotável de células, de modo que nenhum medicamento anti-retroviral seria necessário. (Mas para curar totalmente o tipo 1
diabetes, também teríamos que superar o distúrbio autoimune do paciente, que faz com que seu corpo destrua as ilhotas
células.)
Ainda mais emocionante é a perspectiva de substituir os órgãos e tecidos de alguém por seus substitutos "jovens", sem
cirurgia. A introdução de células clonadas, estendidas por telômero e corrigidas por DNA em um órgão permitirá que elas se integrem
com as células mais antigas. Por repetidos tratamentos deste tipo ao longo de um período de tempo, o órgão acabará por ser
dominado pelas células mais jovens. Normalmente substituímos nossas próprias células regularmente, então por que não fazer isso com
células rejuvenescidas jovens, em vez de células encurtadas de telômero e cheias de erros? Não há razão para que não possamos repetir
Este processo para todos os órgãos e tecidos do nosso corpo, permitindo-nos crescer progressivamente mais jovens.
Resolvendo a Fome Mundial. As tecnologias de clonagem oferecem até uma solução possível para a fome no mundo: a criação de carne e
outras fontes de proteína em uma fábrica sem animais por meio da clonagem de tecido muscular animal. Os benefícios incluiriam extremamente
baixo custo, evitando pesticidas e hormônios que ocorrem na carne natural, impacto ambiental muito reduzido
(em comparação com a criação industrial), perfil nutricional melhorado e nenhum sofrimento animal. Tal como acontece com a clonagem terapêutica, nós
Página 182
não seria criar o animal inteiro, mas sim produzir diretamente as partes ou carne desejada do animal. Essencialmente, todos
da carne - bilhões de libras dela - seria derivada de um único animal.
[Link] 146/349
10/03/2021 ************************************************* ** *
Existem outros benefícios nesse processo além de acabar com a fome. Ao criar carne desta forma, torna-se sujeito a
a lei dos retornos acelerados - as melhorias exponenciais no desempenho de preço de produtos baseados em informações
tecnologias ao longo do tempo - e, portanto, se tornarão extremamente baratos. Mesmo que a fome no mundo hoje seja
certamente exacerbada por questões e conflitos políticos, a carne poderia se tornar tão barata que teria um
efeito profundo sobre a acessibilidade dos alimentos.
O advento da carne sem animais também eliminará o sofrimento dos animais. A economia da pecuária industrial coloca um
prioridade muito baixa no conforto dos animais, que são tratados como engrenagens de uma máquina. A carne produzida neste
maneira, embora normal em todos os outros aspectos, não seria parte de um animal com sistema nervoso, que é
geralmente considerado como um elemento necessário para que o sofrimento ocorra, pelo menos em um animal biológico. Nós poderíamos usar o mesmo
abordagem para produzir subprodutos animais como couro e peles. Outras vantagens importantes seria eliminar o
enormes danos ecológicos e ambientais criados pela pecuária industrial, bem como o risco de doenças baseadas em príons,
como a doença da vaca louca e sua contraparte humana, vCJD. 67
Clonagem humana revisitada. Isso nos leva novamente à clonagem humana. Prevejo que, uma vez que a tecnologia seja aperfeiçoada,
Nem os dilemas agudos vistos pelos especialistas em ética, nem a profunda promessa anunciada pelos entusiastas irão predominar. Então
e se tivermos gêmeos genéticos separados por uma ou mais gerações? É provável que a clonagem seja como outras
tecnologias reprodutivas que foram brevemente controversas, mas rapidamente aceitas. A clonagem física é muito diferente de
clonagem mental, na qual toda a personalidade, memória, habilidades e história de uma pessoa serão finalmente baixadas em um
meio pensante diferente e, provavelmente, mais poderoso. Não há problema de identidade filosófica com genética
clonagem, uma vez que tais clones seriam pessoas diferentes, ainda mais do que os gêmeos convencionais são hoje.
Se considerarmos o conceito completo de clonagem, da célula às organizações, seus benefícios têm enorme sinergia com o
outras revoluções ocorrendo na biologia, bem como na tecnologia da computação. À medida que aprendemos a entender o genoma e
proteoma (a expressão do genoma em proteínas) de humanos e animais, e à medida que desenvolvemos novos
meio de aproveitar a informação genética, a clonagem fornece os meios para replicar animais, órgãos e células. E essa
Tem profundas implicações para a saúde e o bem-estar de nós mesmos e de nossos primos evolutivos no animal
reino.
N ED L UDD : Se todos puderem mudar seus genes, então todos escolherão ser "perfeitos" em todos os sentidos, então haverá
nenhuma diversidade e excelência perderão o sentido.
R AY : Não exatamente. Os genes são obviamente importantes, mas nossa natureza - habilidades, conhecimento, memória, personalidade - reflete
as informações de design em nossos genes, à medida que nossos corpos e cérebros se auto-organizam por meio de nossa experiência. Isto é também
facilmente evidente em nossa saúde. Eu pessoalmente tenho uma predisposição genética para diabetes tipo 2, tendo realmente sido
diagnosticado com essa doença há mais de vinte anos. Mas eu não tenho qualquer indicação de diabetes hoje
porque superei essa disposição genética como resultado da reprogramação da minha bioquímica por meio do estilo de vida
Opções como nutrição, exercícios e suplementação agressiva. No que diz respeito aos nossos cérebros, todos nós temos
Várias aptidões, mas nossos talentos reais são função do que aprendemos, desenvolvemos e experimentamos. Nosso
os genes refletem apenas disposições. Podemos ver como isso funciona no desenvolvimento do cérebro. Os genes descrevem
Certas regras e restrições para padrões de conexões interneuronais, mas as conexões reais que temos como
Os adultos são o resultado de um processo de auto-organização baseado em nosso aprendizado. O resultado final - quem somos - é
profundamente influenciado pela natureza (genes) e criação (experiência).
Então, quando tivermos a oportunidade de mudar nossos genes como adultos, não vamos eliminar a influência de nossos genes anteriores
genes. Experiências anteriores à terapia gênica terão sido traduzidas através dos genes pré-terapia, então
o caráter e a personalidade ainda seriam moldados principalmente pelos genes originais. Por exemplo, se alguém adicionou
genes para aptidão musical para seu cérebro por meio da terapia genética, ele não se tornaria repentinamente um gênio da música.
Página 183
N ED : Ok, eu entendo que os baby boomers projetados não podem se afastar completamente de seus genes pré-projetistas, mas com
bebês projetados, eles terão os genes e o tempo para expressá-los.
R AY : A revolução do "bebê designer" será muito lenta; não será um fator significativo neste século.
Outras revoluções irão superá-lo. Não teremos a tecnologia para bebês projetados por outros dez a vinte
anos. Na medida em que é usado, seria adotado gradativamente, e então levará essas gerações
mais vinte anos para atingir a maturidade. Nesse momento, estamos nos aproximando da Singularidade, com o real
revolução sendo a predominância da inteligência não biológica. Isso vai muito além das capacidades de qualquer
genes de designer. A ideia de bebês e baby boomers projetados é apenas a reprogramação da informação
processos em biologia. Mas ainda é biologia, com todas as suas limitações profundas.
N ED : Você está faltando alguma coisa. Biológico é o que somos. Acho que a maioria das pessoas concordaria que ser biológico é o
atributo quintessencial de ser humano. .
R AY : Isso certamente é verdade hoje.
N ED : E pretendo continuar assim.
R AY : Bem, se você está falando por si mesmo, tudo bem para mim. Mas se você permanecer biológico e não reprogramar seu
genes, você não ficará por muito tempo para influenciar o debate.
[Link] 147/349
10/03/2021 ************************************************* ** *
—L OUIS P ASTEUR
Mas não tenho medo de considerar a questão final se, em última análise, no grande futuro, podemos providenciar
os átomos da maneira que quisermos; os próprios átomos, até o fundo!
—R ICHARD F EYNMAN
A nanotecnologia tem o potencial de melhorar o desempenho humano, para trazer desenvolvimento sustentável para
materiais, água, energia e alimentos, para proteger contra bactérias e vírus desconhecidos, e até mesmo para diminuir o
Razões para quebrar a paz [criando abundância universal].
A nanotecnologia promete as ferramentas para reconstruir o mundo físico - nossos corpos e cérebros incluídos - molecular
fragmento por fragmento molecular, potencialmente átomo por átomo. Estamos reduzindo o tamanho do recurso-chave da tecnologia, em
De acordo com a lei dos retornos acelerados, à taxa exponencial de aproximadamente um fator de quatro por
por década de dimensão. 68 A este ritmo, os principais tamanhos de recursos para a maioria das tecnologias eletrônicas e mecânicas irão
estar na faixa da nanotecnologia - geralmente considerada inferior a cem nanômetros - na década de 2020.
(A eletrônica já caiu abaixo deste limite, embora ainda não em estruturas tridimensionais e ainda não
montagem.) Enquanto isso, um rápido progresso foi feito, especialmente nos últimos anos, na preparação do
Estrutura conceitual e idéias de design para a era vindoura da nanotecnologia.
Tão importante quanto a revolução da biotecnologia discutida acima será, uma vez que seus métodos estejam totalmente maduros, os limites
será encontrado na própria biologia. Embora os sistemas biológicos sejam notáveis em sua inteligência, também temos
descobriu que eles são dramaticamente abaixo do ideal. Eu mencionei a velocidade extremamente lenta de comunicação no
cérebro, e como discuto abaixo (ver p. 253), substituições robóticas para nossos glóbulos vermelhos podem ser milhares de vezes
mais eficientes do que suas contrapartes biológicas. 69 A biologia nunca será capaz de igualar o que seremos capazes de fazer
engenharia, uma vez que entendemos totalmente os princípios de operação da biologia.
Página 184
A revolução na nanotecnologia, no entanto, acabará nos permitindo redesenhar e reconstruir, molécula por
molécula, nossos corpos e cérebros e o mundo com o qual interagimos. 70 Essas duas revoluções estão se sobrepondo, mas o
a plena realização da nanotecnologia está atrasada em relação à revolução da biotecnologia em cerca de uma década.
A maioria dos historiadores da nanotecnologia datam o nascimento conceitual da nanotecnologia para o físico Richard Feynman
discurso seminal em 1959, "Há muito espaço no fundo", no qual ele descreveu a inevitabilidade e a profundidade
Implicações das máquinas de engenharia no nível dos átomos:
Os princípios da física, até onde posso ver, não falam contra a possibilidade de manobrar as coisas do átomo.
por átomo. Seria, em princípio, possível ... para um físico sintetizar qualquer substância química que o
químico escreve. . . . Quão? Coloque os átomos onde o químico diz, e assim você faz a substância.
Os problemas de química e biologia podem ser muito ajudados se nossa capacidade de ver o que estamos fazendo e de
fazer coisas em um nível atômico é, em última análise, desenvolvido - um desenvolvimento que eu acho que não pode ser evitado. 71
Uma base conceitual ainda anterior para a nanotecnologia foi formulada pelo teórico da informação John von
Neumann no início dos anos 1950 com seu modelo de um sistema autorreplicante baseado em um construtor universal, combinado
com um computador universal. 72 Nesta proposta, o computador executa um programa que direciona o construtor, que por sua vez
Constrói uma cópia do computador (incluindo seu programa de autorreplicação) e do construtor. Neste nível de
descrição A proposta de von Neumann é bastante abstrata - o computador e o construtor poderiam ser feitos em uma grande variedade
de formas, bem como de materiais diversos, podendo até ser uma construção teórica matemática. Mas ele pegou o
Conceito um passo adiante e propôs um "construtor cinemático": um robô com pelo menos um manipulador (braço) que
construiria uma réplica de si mesmo a partir de um "mar de peças" em seu meio. 73
Coube a Eric Drexler fundar o campo moderno da nanotecnologia, com um rascunho de seu doutorado. tese
em meados da década de 1980, em que ele essencialmente combinou essas duas sugestões intrigantes. Drexler descreveu um von
Construtor cinemático Neumann, que por seu mar de peças utilizou átomos e fragmentos moleculares, conforme sugerido em
O discurso de Feynman. A visão de Drexler ultrapassou muitas fronteiras disciplinares e foi tão abrangente que ninguém foi
ousado o suficiente para ser seu orientador de tese, exceto por meu próprio mentor, Marvin Minsky. Dissertação de Drexler (que
tornou-se seu livro Engines of Creation em 1986 e foi articulado tecnicamente em seu livro de 1992, Nanosystems ) apresentado
a fundação da nanotecnologia e forneceu o roteiro que ainda está sendo seguido hoje. 74
O "montador molecular" de Drexler será capaz de fazer quase tudo no mundo. Tem sido referido como um
[Link] 148/349
10/03/2021 ************************************************* ** *
"montador universal", mas Drexler e outros teóricos da nanotecnologia não usam a palavra "universal" porque o
produtos de tal sistema necessariamente têm que estar sujeitos às leis da física e da química, então apenas atomicamente
Estruturas estáveis seriam viáveis. Além disso, qualquer montador específico estaria restrito a construir produtos de
seu mar de partes, embora a viabilidade de usar átomos individuais tenha sido demonstrada. No entanto, tal montador
Poderíamos fazer praticamente qualquer dispositivo físico que desejarmos, incluindo computadores e subsistemas altamente eficientes para
outros montadores.
Embora a Drexler não tenha fornecido um projeto detalhado para um montador - tal projeto ainda não foi totalmente
especificado - sua tese forneceu argumentos de viabilidade extensivos para cada um dos componentes principais de uma
assembler, que inclui os seguintes subsistemas:
•O computador : para fornecer a inteligência para controlar o processo de montagem. Tal como acontece com todos os subsistemas do dispositivo,
o computador precisa ser pequeno e simples. Como descrevi no capítulo 3, Drexler fornece uma intrigante
Descrição conceitual de um computador mecânico com "travas" moleculares em vez de portas de transistor. Cada fechadura
exigiria apenas dezesseis nanômetros cúbicos de espaço e poderia mudar dez bilhões de vezes por segundo. Esta
proposta permanece mais competitiva do que qualquer tecnologia eletrônica conhecida, embora computadores eletrônicos construídos
A partir de matrizes tridimensionais de nanotubos de carbono parecem fornecer densidades de computação ainda mais altas (que
ou seja, cálculos por segundo por grama). 75
Página 185
•A arquitetura de instrução : Drexler e seu colega Ralph Merkle propuseram um SIMD (instrução única
arquitetura de dados múltiplos) na qual um único armazenamento de dados registraria as instruções e as transmitiria para
trilhões de montadores de tamanho molecular (cada um com seu próprio computador simples) simultaneamente. Eu discuti alguns de
as limitações da arquitetura SIMD no capítulo 3, mas este projeto (que é mais fácil de implementar do que mais
abordagem flexível de múltiplas instruções de múltiplos dados) é suficiente para o computador em uma nanotecnologia universal
assembler. Com esta abordagem, cada montador não teria que armazenar todo o programa para criar o desejado
produtos. Uma arquitetura de "transmissão" também aborda uma preocupação fundamental de segurança: o processo de auto-replicação pode ser
desligue, se ficar fora de controle, encerrando a fonte centralizada das instruções de replicação.
No entanto, como Drexler aponta, um montador em nanoescala não precisa necessariamente ser autorreplicante. 76
Dados os perigos inerentes à autorreplicação, os padrões éticos propostos pelo Foresight Institute (um artigo
tanque fundado por Eric Drexler e Christine Peterson) contêm proibições contra a autorreplicação irrestrita,
Especialmente em um ambiente natural.
Como discutirei no capítulo 8, esta abordagem deve ser razoavelmente eficaz contra perigos inadvertidos,
embora pudesse ser contornado por um adversário determinado e experiente.
• transmissãode Instrução : Transmissão das instruções do armazenamento de dados centralizada para cada um dos muitos
os montadores seriam realizados eletronicamente se o computador fosse eletrônico ou por meio de vibrações mecânicas
se o conceito de Drexler de um computador mecânico fosse usado.
•O robô de construção : o construtor seria um robô molecular simples com um único braço, semelhante a von
Construtor cinemático de Neumann, mas em pequena escala. Já existem exemplos de experimentos moleculares
sistemas de escala que podem atuar como motores e pernas de robô, como discuto a seguir.
•A dica do braço do robô : os nanossistemas de Drexler, fornecidos com vários componentes químicos, são a dica viável do braço do robô
para torná-lo capaz de apreender (usando campos de força atômica apropriados) um fragmento molecular, ou mesmo um único
átomo e, em seguida, depositando-o em um local desejado. No processo de deposição de vapor químico usado para construir
diamantes artificiais, átomos de carbono individuais, bem como fragmentos moleculares, são movidos para outros locais
por meio de reações químicas na ponta. A construção de diamantes artificiais é um processo caótico que envolve trilhões de
átomos, mas as propostas conceituais de Robert Freitas e Ralph Merkle contemplam pontas do braço do robô que podem remover
átomos de hidrogênio de um material de origem e os deposita em locais desejados na construção de um
máquina. Nesta proposta, as minúsculas máquinas são construídas com um material diamondoide. Além de ter ótimo
força, o material pode ser dopado com impurezas de maneira precisa para criar componentes eletrônicos, como
transistores. Simulações têm mostrado que tais engrenagens em escala molecular, alavancas, motores e outras
os sistemas operariam corretamente como pretendido. 77 Mais recentemente, a atenção tem se concentrado nos nanotubos de carbono,
compreendendo matrizes hexagonais de átomos de carbono montados em três dimensões, que também são capazes de
Fornecendo funções mecânicas e eletrônicas em nível molecular. Eu forneço exemplos abaixo de
máquinas em escala molecular que já foram construídas.
•O ambiente interno da montadora precisa evitar que impurezas ambientais interfiram com o
delicado processo de montagem. A proposta de Drexler é manter um vácuo próximo e construir as paredes da montadora a partir de
o mesmo material diamantóide que o próprio montador é capaz de fazer.
•A energia necessária para o processo de montagem pode ser fornecida tanto por meio de eletricidade quanto por meio de produtos químicos
energia. Drexler propôs um processo químico com o combustível entrelaçado com a matéria-prima de construção. Mais recente
As propostas usam células de combustível de nanoengenharia incorporando hidrogênio e oxigênio ou glicose e oxigênio, ou acústicas
potência em frequências ultrassônicas. 78
Embora muitas configurações tenham sido propostas, o montador típico foi descrito como uma unidade de mesa
[Link] 149/349
10/03/2021 ************************************************* ** *
que pode fabricar quase qualquer produto fisicamente possível para o qual temos uma descrição de software, variando de
computadores, roupas e obras de arte para refeições preparadas. 79 Produtos maiores, como móveis, carros ou até casas, podem ser
construído de forma modular ou usando montadores maiores. De particular importância é o fato de que um montador pode criar
cópias de si mesmo, a menos que seu design especificamente proíba isso (para evitar auto-replicação potencialmente perigosa), o
Página 186
custo incremental de criação de qualquer produto físico, incluindo os próprios montadores, seria de centavos por libra -
Basicamente, o custo das matérias-primas. Drexler estima o custo total de manufatura para uma manufatura molecular
processo na faixa de dez centavos a cinquenta centavos por quilograma, independentemente de o produto manufaturado ser
roupas, supercomputadores maciçamente paralelos ou sistemas de manufatura adicionais. 80
O custo real, é claro, seria o valor das informações que descrevem cada tipo de produto - ou seja, o
software que contro