Untitled
Tópicos abordados
Untitled
Tópicos abordados
Maceió
2021
GABRIELA BUARQUE PEREIRA SILVA
Maceió
2021
Catalogação na fonte
Universidade Federal de Alagoas
Biblioteca Central
Divisão de Tratamento Técnico
Bibliotecária: Lívia Silva dos Santos – CRB-4 – 1670
Bibliografia: f. 128-140
CDU: 347.51:004.8
Folha de Aprovação
Banca Examinadora:
_______________________________________________________________
_______________________________________________________________
______________________________________________________________
AGRADECIMENTOS
Aos meus pais, Celia e Edvaldo, e aos meus avós, por sempre serem meus
alicerces e pilares de motivação e terem me proporcionado condições emocionais e materiais
de me dedicar à instrução que tanto estimo. O elo perpétuo que nos une faz com que todas as
minhas vitórias pertençam conjuntamente a vocês.
(José Saramago)
RESUMO
Trata-se de análise acerca dos influxos dos danos oriundos de atividade de inteligência
artificial no ramo da responsabilidade civil, partindo do pressuposto constitucional de
solidariedade social e tutela da vítima. Objetiva-se investigar o enquadramento e as
classificações da responsabilidade civil no que se refere à reparação dos danos oriundos de
mecanismos dotados de inteligência artificial e sua função preventiva no contexto de risco do
desenvolvimento tecnológico, analisando respostas adequadas às situações de gestão de
incerteza. A relevância da abordagem toma forma considerando o vertiginoso crescimento da
inteligência artificial em todos os ramos sociais, o que cria a necessidade de delimitação de
transparência e segurança para o modelo empresarial. Nesse panorama, a abordagem se
constitui por meio de metodologia dedutiva de revisão bibliográfica, procedendo a uma
análise acerca do tema nas perspectivas do Direito Constitucional, do Direito Civil e do
Direito do Consumidor, compreendendo periódicos científicos, obras específicas, dissertações
de mestrado e teses de doutorado. Será utilizado o método comparativo, analisando textos
legislativos europeus e estadunidenses pertinentes à problemática da dissertação, com o fito
de identificar os dispositivos e os princípios que fundamentam e norteiam a disciplina jurídica
da questão. O ponto fulcral da dissertação se agrega ao processo histórico de
redirecionamento do olhar da responsabilidade civil para a vítima, em atendimento ao
princípio da reparação integral do dano e com fulcro na cláusula geral do risco, disposta no
art. 927, parágrafo único, do Código Civil, robustecendo o compromisso com o atendimento
dos direitos fundamentais. A reparação pode ter fundamento, a depender do caso concreto, na
responsabilidade objetiva da legislação consumerista ou da cláusula geral do art. 927,
parágrafo único, do Código Civil, e na responsabilidade objetiva pelo fato da coisa, não
constituindo, a princípio, o risco do desenvolvimento uma excludente do dever de indenizar.
Por outro lado, as relações interempresariais permanecem disciplinadas pela responsabilidade
subjetiva. Nesse sentido, verifica-se que a reparação civil para atos de inteligência artificial
pode, orientada pelo princípio da precaução e em consonância com o incentivo tecnológico,
nos moldes contemporâneos, atender às demandas de reparação, com as especificidades dos
respectivos ramos jurídicos em que esteja inserida, não sendo necessária, no presente
momento, a criação de uma personalidade eletrônica adicional ou de um novo arcabouço
normativo.
PALAVRAS-CHAVE: Responsabilidade civil; Inteligência artificial; Teoria do risco; Dano;
Solidariedade social.
ABSTRACT
It aims to analyze the inflows of damages arising from artificial intelligence activity in the
field of civil liability, based on the constitutional assumption of social solidarity and victim
protection. The objective is to investigate the framework and classifications of civil liability
regarding the repair of damages arising from mechanisms equipped with artificial
intelligence, and their preventive function in the context of technological development risk,
analyzing appropriate answers to situations of uncertainty management. The relevance of the
approach assumes character considering the dizzying growth of artificial intelligence in all
social branches, which creates the need to delimit transparency and security for the business
model. In this panorama, the approach is constituted by means of deductive methodology of
bibliographic review, proceeding to an analysis about the theme in the perspectives of
Constitutional Law, Civil Law and Consumer Law, comprising scientific journals, books,
master’s dissertations and doctoral thesis. Furthermore, the comparative method will be used,
analyzing European and American legislative texts relevant to the issue of the dissertation, in
order to identify devices and principles that underlie and guide the legal discipline of the
issue. The main point of the dissertation connects to the historical process of redirecting the
look of civil liability to the victim, in compliance with the principle of full reparation of the
damage and with a focus on the general clause of risk set out in art. 927 of the Civil Code,
strengthening the commitment to fullfill the fundamental rights. The reparation may be based,
depending on the specific case, on strict liability set out in consumer legislation or in the
general clause of art. 927, of the Brazilian Civil Code, and in the strict liability caused by
inanimated things, not constituting, in principle, the risk of developing an exclusion of the
duty to indemnify. On the other hand, inter-business relationships remain disciplined by
negligence liability. In this sense, it appears that civil liability for acts of artificial intelligence
can, guided by the precautionary principle and in line with technological incentives, in
contemporary ways, meet the demands for reparations, with the specificities of the respective
legal branches in which it is located, not being necessary, at the present moment, the creation
of an additional electronic personality or a new normative framework.
KEYWORDS: Civil liability; Artificial intelligence; Risk theory; Damages; Social solidarity.
LISTA DE ABREVIATURAS E SIGLAS
1.0. INTRODUÇÃO................................................................................................................10
2.0. DA INOVAÇÃO TECNOLÓGICA E DE SEUS FUNDAMENTOS
CONSTITUCIONAIS.......................................................................................................14
2.1. BASES CONCEITUAIS PARA A COMPREENSÃO DA INTELIGÊNCIA
ARTIFICIAL...........................................................................................................18
2.2. O USO DA INTELIGÊNCIA ARTIFICIAL COMO FERRAMENTA NO
PODER JUDICIÁRIO BRASILEIRO....................................................................25
2.3. POSSIBILIDADES DE LESÕES E DANOS DA ATIVIDADE..........................28
2.4. EXPOENTES INTERNACIONAIS PARA O MARCO REGULATÓRIO
BRASILEIRO.................................................................................................................35
2.4.1. Fronteiras entre a Lei nº 13.709/18 e o General Data Protection
Regulation (GDPR)..............................................................................40
2.4.2. Do marco regulatório norte-americano sobre a matéria.................42
1 INTRODUÇÃO
O art. 218 demanda que toda a regulação do setor tecnológico seja procedida com a
cautela necessária a não obstaculizar o seu desenvolvimento, sendo também um dever dos
entes federativos promovê-lo e incentivá-lo. No mesmo sentido, o parágrafo primeiro do art.
218 estipula que a pesquisa científica básica e tecnológica receberá tratamento prioritário do
Estado, tendo em vista o bem público e o progresso da ciência, tecnologia e inovação. A
determinação acha-se em consonância com os objetivos fundamentais da República, nos
termos do art. 3º da Constituição Federal, de erradicar a pobreza e a marginalização e reduzir
as desigualdades sociais e regionais (III).
1
VEGA GARCIA, Balmes. Direito e tecnologia: regime jurídico da ciência, tecnologia e inovação. São
Paulo: LTr, 2008, p. 19.
2
ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE). Manual de
Oslo: diretrizes para a coleta a interpretação de dados sobre a inovação. 3. ed. 2005. Disponível em:
https://www.finep.gov.br/images/apoio-e-financiamento/manualoslo.pdf. Acesso em: 18 nov. 2019.
15
Essa determinação se alinha, ainda, com o art. 170 da Constituição, que estabelece os
princípios da ordem econômica, fundada na valorização do trabalho humano e na livre-
iniciativa. O parágrafo segundo do art. 218 afirma que a pesquisa tecnológica voltar-se-á
preponderantemente para a solução dos problemas brasileiros e para o desenvolvimento do
sistema produtivo nacional e regional.
a pesquisa tecnológica a que se faz menção é a promovida pelo ente estatal e não a
promovida pelo particular, pelo agente privado. É o Estado (conforme determina o
caput do dispositivo) que há de direcionar a sua pesquisa tecnológica para os fins
sociais indicados pela norma constitucional transcrita. Vale, aqui, a análise já
exposta para o âmbito da pesquisa de base. A imposição, ao particular, enquanto
atue com recursos exclusivamente privados, de que a sua pesquisa tecnológica
tenha, necessariamente, uma destinação social específica, qual seja, a solução dos
problemas brasileiros em âmbito nacional ou regional, é inconsistente com o já
mencionado princípio da livre iniciativa (ainda que se admita – como se há de
admitir – que esteja mitigado pela busca da promoção ou justiça social). Eventual
benefício social, ocasionado pela pesquisa tecnológica promovida pelo agente
privado, não deixará de ser uma mera externalidade positiva, fora de um dos
propósitos principais da empresa, que é obter competitividade no mercado, por meio
de inovações e/ou atualizações de seus produtos3.
Não obstante o principal objetivo dos agentes privados que desenvolvem tecnologias
para o mercado de consumo seja a lucratividade, é imprescindível ressaltar que tal objetivo
deve ser perseguido em consonância com as diretrizes da função social, razão por que não
poderá prejudicar o desenvolvimento social nem se desvincular de suas determinações. O que
se denomina endogeneização da tecnologia é a atuação estatal orientadora da produção
tecnológica de forma interna e voltada às necessidades do país, mormente tendo em vista que
o mercado interno é patrimônio nacional e deve ser funcionalizado para atingir as
necessidades nacionais, além de ser um veículo para a superação do subdesenvolvimento4.
O parágrafo terceiro do art. 218, por sua vez, estipula que o Estado apoiará a formação
de recursos humanos nas áreas de ciência, pesquisa e tecnologia, e concederá aos que delas se
ocupem meios e condições especiais de trabalho. Tal disposição estabelece um tratamento
diferenciado para aqueles que laboram na área científica, de pesquisa e tecnológica, como
3
TAVARES, André Ramos. Ciência e Tecnologia na Constituição. Revista de Informação Legislativa.
Brasília, n. 175, jul./set., 2007, p. 11.
4
MORAES, Melina Ferracini de. Inovação tecnológica como instrumento para o desenvolvimento do Brasil.
Direito Constitucional Econômico. Vol. 97. São Paulo: Editora Revista dos Tribunais, set.- out. 2016, p. 8.
16
5
XXXII – proibição de distinção entre trabalho manual, técnico e intelectual ou entre os profissionais
respectivos.
6
TAVARES, André Ramos. Ciência e Tecnologia na Constituição. Revista de Informação Legislativa.
Brasília, n. 175, jul./set., 2007, p. 14.
7
IV - a vinculação de receita de impostos a órgão, fundo ou despesa, ressalvadas a repartição do produto da
arrecadação dos impostos a que se referem os arts. 158 e 159, a destinação de recursos para as ações e serviços
públicos de saúde, para manutenção e desenvolvimento do ensino e para realização de atividades da
administração tributária, como determinado, respectivamente, pelos arts. 198, § 2º, 212 e 37, XXII, e a prestação
de garantias às operações de crédito por antecipação de receita, previstas no art. 165, § 8º, bem como o disposto
no § 4º deste artigo.
17
Por fim, em âmbito municipal, a Lei nº 6.902/19 dispõe, em síntese, sobre o estímulo ao
desenvolvimento de soluções para o alcance do patamar de Cidade Humana, Inteligente,
Sustentável e Criativa8, gerando conhecimentos que se convertam em produtos tecnológicos
no Município de Maceió.
É competência comum da União, dos Estados e dos Municípios proporcionar os meios
de acesso à cultura, à educação e à ciência, nos termos do art. 23, V9, da Constituição Federal.
Embora haja evidente intuito de estímulo, as normas constitucionais não explicitam os
segmentos a serem priorizados nem os instrumentos que efetivamente serão utilizados para
tanto, o que proporciona uma ampla margem de discricionariedade ao administrador público.
Somente em 2004 surgiu a Lei nº 10.973/04 (Lei da Inovação Tecnológica), que dispõe
sobre incentivos à inovação e à pesquisa científica e tecnológica no ambiente produtivo, e,
posteriormente, a Lei nº 11.196/05 (Lei do Bem), que concede incentivos fiscais às pessoas
jurídicas que realizarem pesquisa e desenvolvimento na área de inovação tecnológica.
A Lei de Inovação Tecnológica está organizada em torno de três eixos fundamentais: a
construção de ambiente favorável à formação de parcerias estratégicas entre universidades,
institutos tecnológicos e empresas; o estímulo à participação de institutos de ciência e
tecnologia no processo de inovação; e o estímulo à inovação da empresa, além de prever o
compartilhamento de infraestrutura, equipamentos e recursos humanos entre os espaços
públicos e as empresas10.
Não obstante tal arcabouço normativo, o Brasil ainda possui muitos desafios
pragmáticos a enfrentar no que tange ao efetivo desenvolvimento tecnológico, à colaboração
entre indústrias e universidades e ao incentivo à pesquisa, sendo diversos os gargalos que
dificultam a consolidação de um paradigma de pesquisa científica.
Tais diplomas legislativos se entrelaçam na persecução do objetivo constitucional
primordial: a promoção do desenvolvimento tecnológico. No mesmo passo, é imprescindível
que seja refletida a forma de regulação desse desenvolvimento, máxime tendo em vista a
sensibilidade do tema à luz do art. 218 da Constituição Federal e a necessidade de observância
das outras diretrizes, também constitucionais, que impõem o paradigma da função social. Não
8
A cidade humana, inteligente, sustentável e criativa é aquela que busca traçar seu desenvolvimento com base
nos pilares de integração, transparência e sustentabilidade, por meio da colaboração entre poder público,
sociedade civil e instituições de ensino, buscando promover a criatividade local e a utilização de tecnologias
avançadas.
9
Art. 23. É competência comum da União, dos Estados, do Distrito Federal e dos Municípios: (...) V -
proporcionar os meios de acesso à cultura, à educação, à ciência, à tecnologia, à pesquisa e à inovação;
10
MORAES, Melina Ferracini de. Inovação tecnológica como instrumento para o desenvolvimento do Brasil.
Direito Constitucional Econômico. Vol. 97. São Paulo: Editora Revista dos Tribunais, set.- out. 2016, p. 8.
18
11
“That’s why the definition I gave in the last chapter, and the way I’m going to use the word throughout this
book, is very broad: intelligence = ability to accomplish complex goals.” TEGMARK, Max. Life 3.0. Being
human in the age of artificial intelligence. New York: Alfred A. Knopf, 2017, p. 70.
12
KAPLAN, Jerry. Artificial Intelligence: What everyone needs to know. Oxford: Oxford University Press,
2016, p. 13.
13
NORVIG, Peter; RUSSELL, Stuart J. Artificial Intelligence: A Modern Approach. New Jersey: Prentice
Hall, 1995, p. 16.
19
Patrick Henry Winston, por sua vez, aduz que existem várias formas de definir a
inteligência artificial, definindo-a como o estudo da computação que lhe possibilita perceber,
racionar e agir15. Ressalte-se, ainda, que muitas máquinas são conduzidas por interfaces de
comandos, o que atrela sua atividade à vontade do emissor ou proprietário. Outras, no entanto,
têm demonstrado um grau de interatividade mais baixo, evidenciando condução mais
autônoma em relação ao ser humano. Desse modo, a condução da atividade da máquina difere
entre os sistemas que possuem alta interatividade com o operador-usuário, usualmente
subordinando-se às suas emissões, e os sistemas que possuem interatividade baixa com o
operador-usuário, usualmente demonstrando autossuficiência na condução das atividades.
14
“The first is communication. One can communicate with an intelligent entity. The easier it is to communicate
with an entity, the more intelligent the entity seems. One can communicate with a dog, but not about Einstein's
Theory of Relativity. The second is internal knowledge. An intelligent entity is expected to have some
knowledge about itself. The third is external knowledge. An intelligent entity is expected to know about the
outside world, to learn about it, and utilize that information. The fourth is goal-driven behavior. An intelligent
entity is expected to take action in order to achieve its goals. The fifth is creativity. An intelligent entity is
expected to have some degree of creativity. In this context, creativity means the ability to take alternate action
when the initial action fails. A fly tries to exit a room and bumps into a windowpane continues to repeat the same
futile behavior. When an Al robot bumps into a window, it tries to exit using the door. Most Al entities possess
these five attributes by definition”. HALLEVY, Gabriel. The criminal liability of artificial intelligence entities-
from Science fiction to legal social control. Akron Intellectual Property Journal. Ohio, vol. 4, p. 171-199,
2016.
15
WINSTON, Patrick Henry. Artificial Intelligence. 3rd edition, Massachussets: Addison-Wesley Publishing
Company, 1993, p. 5.
16
STRELKOVA, O. PASICHNYK, O. Three types of artificial intelligence. Disponível em:
http://eztuir.ztu.edu.ua/jspui/bitstream/123456789/6479/1/142.pdf. Acesso em: 3 mai. 2019.
20
Intelligence (AGI), inteligência que mimetiza a mente humana e tem várias habilidades de um
modo mais abrangente, tais como planejar e resolver problemas, pensar abstratamente,
compreender ideias complexas e aprender rapidamente por meio da experiência, equiparando-
se ao raciocínio humano. Por fim, a terceira seria a Artificial Super Intelligence (ASI) ou
Super IA (SIA), intelecto mais inteligente que até mesmo o cérebro humano em diversas
áreas, incluindo habilidades sociais, raciocínio, discernimento e nível de conhecimento geral,
ideia que ainda se restringe ao âmbito da ficção científica:
17
PALAZZO, Luiz Antônio Moro; VANZIN, Tarcísio. Superinteligência Artificial e a Singularidade
Tecnológica. P. 2. Disponível em: http://infocat.ucpel.tche.br/disc/ia/m01/SAST.pdf. Acesso em: 7 out. 2019.
18
“A robot is a constructed system that displays both physical and mental agency, but is not alive in the
biological sense”. RICHARDS, Neil M.; SMART, William D. How should the law think about robots?
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2263363. Acesso em: 1 out. 2018.
19
SILVA, Nuno Sousa e. Direito e Robótica: uma primeira aproximação. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2990713. Acesso em: 16 jul. 2019.
20
SILVA, Nuno Sousa e. Direito e Robótica: uma primeira aproximação. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2990713. Acesso em: 21 mar. 2020.
21
SILVA, Nilton Correia da. Inteligência Artificial. In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.).
Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil,
2019, p. 47.
21
Para os fins da presente dissertação, delimita-se o objeto de estudo com base nas
inteligências artificiais mais próximas ao cotidiano, que se utilizam de aprendizado de
máquina, processamento de linguagem natural, redes neurais artificiais e se dedicam a
mimetizar o raciocínio humano, classificadas na ANI. Impende ressaltar que para Jerry
Kaplan, utilizar a experiência humana como parâmetro para a análise da IA, como fizeram
autores como John McCarthy, pode acarretar dificuldades. Nesse ponto, impõe-se a
constatação de que a mente humana e as máquinas inteligentes possuem especificidades que a
tornam singularmente distintas em alguns aspectos.
Sobre tais especificidades, Kaplan argumenta que:
22
“But there’s another problem with using human capabilities as a yardstick for AI. Machines are able to
perform lots of tasks that people can't do at all, and many such performances certainly feel like displays of
intelligence. A security program may suspect a cyber attack based on an unusual pattern of data access requests
in a span of just five hundred milliseconds; a tsunami warning system may sound an alarm based on barely
perceptible changes in ocean heights that mirror complex undersea geography; a drug discovery program may
propose a novel admixture by finding a previously unnoticed pattern of molecular arrangements in successful
cancer treatment compounds. The behavior exhibited by systems like these, which will become ever more
common in the near future, doesn't lend itself to comparison with human capabilities. Nonetheless, we are likely
to regard such systems as artificially intelligent.” KAPLAN, Jerry. Artificial Intelligence: What everyone
needs to know. Oxford: Oxford University Press, 2016, p. 4.
23
“The essence of AI- indeed the essence of intelligence- is the ability to make appropriate generalizations in a
timely fashion based on limited data.” KAPLAN, Jerry. Artificial Intelligence: What everyone needs to
know. Oxford: Oxford University Press, 2016, p. 5.
22
Ray Kurzweil suscita questões de uma era de pós-humanidade, baseada numa noção de
singularidade tecnológica que se inspira no pensamento de Vernor Vinge:
Quando a inteligência maior que a humana impulsiona o progresso, esse progresso
será muito mais rápido. De fato, parece não haver razão para que o progresso em si
não envolva a criação de entidades ainda mais inteligentes ‒ em uma escala de
tempo ainda menor (…). Essa mudança será uma eliminação de todas as regras
humanas, talvez em um piscar de olhos ‒ uma fuga exponencial além de qualquer
esperança de controle. Os desenvolvimentos que foram pensados para acontecer em
“um milhão de anos” (se é que algum dia) provavelmente acontecerão no próximo
século. É justo chamar este evento de uma singularidade (“a Singularidade” para os
propósitos desta peça). É um ponto em que nossos modelos antigos devem ser
descartados e uma nova realidade deve ser governada, um ponto que se tornará mais
vasto e mais vasto que os assuntos humanos, até que a noção se torne um lugar-
comum. No entanto, quando finalmente acontece, ainda pode ser uma grande
surpresa e uma grande incerteza. (Tradução livre)27.
24
WINSTON, Patrick Henry. Artificial Intelligence. 3rd edition, Massachussets: Addison-Wesley Publishing
Company, 1993, p. 10-14.
25
CHELIGA, Vinicius. Teixeira, Tarcisio. Inteligência artificial: aspectos jurídicos. Salvador: Editora
Juspodivm, 2019, p. 27.
26
PARLAMENTO EUROPEU. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém
recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL)). Disponível
em: http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html. Acesso em: 20 jan. 2020.
27
When greater-than-human intelligence drives progress, that progress will be much more rapid. In fact, there
seems no reason why progress itself would not involve the creation of still more intelligent entities-on a still-
shorter time scale (…). This change will be a throwing-away of all the human rules, perhaps in the blink of an
eye – an exponential runaway beyond any hope of control. Developments that were thought might only happen
in “a million years” (if ever) will likely happen in the next century. It’s fair to call this event a singularity (“the
Singularity” for the purposes of this piece). It is a point where our old models must be discarded and a new
reality rules, a point that will loom vaster and vaster over human affairs until the notion becomes a
commonplace. Yet when it finally happens, it may still be a great surprise and a greater unknown. VINGE,
Vernor. What is the singularity? Disponível em:
https://www.frc.ri.cmu.edu/~hpm/book98/com.ch1/vinge.singularity.html . Acesso em: 26 set. 2018.
23
28
PALAZZO, Luiz Antônio Moro; VANZIN, Tarcísio. Superinteligência Artificial e a Singularidade
Tecnológica. Disponível em: http://infocat.ucpel.tche.br/disc/ia/m01/SAST.pdf. Acesso em: 7 out. 2019. p. 4.
29
Para ilustrar seu posicionamento, John Searle se utiliza, em 1980, do teste chamado de “O argumento do
quarto chinês”, onde deduz que o robô possui limitações que o restringem no campo da sintaxe. O “argumento
do quarto chinês” refere-se à hipótese em que um indivíduo, falante apenas do idioma português, encontra-se
fechado em um quarto com uma caixa, símbolos em chinês e um livro com regras, onde se explicitam que
símbolos devem ser enviados quando outros são remetidos. Supõe-se que são enviadas sucessivas perguntas em
chinês, de modo que o indivíduo sempre recorre ao material disponível, enviando respostas corretas em chinês,
sem, contudo, compreender, semanticamente, aquilo a que se refere. Por analogia, Searle argumenta que tal
funcionamento se assemelha à computação, porquanto a máquina não possui capacidades cognitivas efetivas,
limitando-se a gerenciar símbolos. Esse argumento se contrapõe ao famoso “Experimento Mental” ou “Teste de
Turing”, formulado a partir da situação hipotética em que um indivíduo se comunica com uma parte
desconhecida, que pode ser um ser humano ou um computador. Se o computador responder ao indivíduo de
modo que este acreditasse que se tratava de um ser humano e não de uma máquina, haveria fortes evidências de
que o computador era concretamente inteligente. O Teste de Turing, por sua vez, também tem sido considerado
ultrapassado e é passível de críticas por depender da percepção do interlocutor, que pode ser variável, e por não
avaliar efetivamente a inteligência da máquina, mas sim a sua capacidade de parecer inteligente.
30
CÂMARA, Marco Sérgio Andrade Leal Câmara. Inteligência artificial: representação de conhecimento.
Disponível em: https://student.dei.uc.pt/~mcamara/artigos/inteligencia_artificial.pdf. Acesso em: 22 set. 2018.
31
“For each possible percept sequence, an ideal rational agent should do whatever action is expected to
maximize its performance measure, on the basis of the evidence provided by the percept sequence and whatever
built-in knowledge the agent has”. NORVIG, Peter; RUSSELL, Stuart J. Artificial Intelligence: A Modern
Approach. New Jersey: Prentice Hall, 1995, p. 33.
24
em busca de um padrão32. Os algoritmos, por sua vez, podem atuar por meio de machine
learning, que é, essencialmente, a atividade da máquina de aprender novos fatos por meio da
análise dos dados e da experiência prévia, sem programação explícita para tanto, adaptando a
aprendizagem a novas situações33. O deep learning é uma especialização avançada do
machine learning e tem a capacidade de processar diferentes tipos de dados de maneira
semelhante a um cérebro humano,34 situando-se da seguinte forma:
Machine learning
Deep
learning
Figura autoral
Figura 1 – Relação entre machine learning e deep learning
32
GUTIERREZ, Andriei. É possível confiar em um sistema de inteligência artificial? Práticas em torno da
melhoria da sua confiança, segurança e evidências e accountability. In: FRAZÃO, Ana. MULHOLLAND,
Caitlin. Inteligência artificial e Direito: Ética, Regulação e Responsabilidade. São Paulo: Thomson Reuters
Brasil, 2019, p. 85.
33
CERKA, Paulius; GRIGIENE, Jurgita; SIRBIKYTE, Gintare. Liability for damages caused by artificial
intelligence. Computer Law and Security Review. United Kingdom, v. 31, p. 380.
34
MULHOLLAND, Caitlin. Responsabilidade civil e processos decisórios autônomos em sistemas de
inteligência artificial (IA): autonomia, imputabilidade e responsabilidade. In: FRAZÃO, Ana. MULHOLLAND,
Caitlin (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson
Reuters Brasil, 2019, p. 329.
25
de um banco, carros são conduzidos de modo autônomo, negócios jurídicos são firmados por
meio de softwares em contratos eletrônicos, microscópios da Google Brain são capazes de
diagnosticar câncer35, robôs são produzidos para colaborar no cotidiano de idosos no Japão36,
sistemas de reconhecimento facial são utilizados na segurança pública37. Mecanismos usados
no cotidiano como Spotify, Waze e Netflix são apenas amostras38 do potencial transformador
da inteligência artificial no meio comunitário. A Microsoft, por exemplo, possui um projeto
chamado Hanover, que se dedica a prever combinações de drogas para tratamento de câncer a
partir da memorização de artigos sobre o tema39. No mesmo sentido, tal tecnologia foi
utilizada massivamente no combate à pandemia da Covid-1940.
Com efeito, os impactos da inteligência artificial não se restringem às atividades
cotidianas e domésticas. O Poder Judiciário vem absorvendo cada vez mais ferramentas
inteligentes para otimizar sua demanda e oferecer prestações jurisdicionais mais céleres.
35
TECMUNDO. Microscópio da Google com realidade aumentada e IA pode detectar câncer. Disponível em:
https://www.tecmundo.com.br/produto/129343-microscopio-google-realidade-aumentada-ia-detectar-
cancer.htm. Acesso em: 20 set. 2018.
36
G1. Robôs poderão ajudar população de idosos no Japão no futuro. Disponível em:
http://g1.globo.com/tecnologia/noticia/2011/10/robos-poderao-ajudar-populacao-de-idosos-no-japao-no-
futuro.html Acesso em: 20 set. 2018.
37
CANAL TECH. Polícia do RJ adota sistema de reconhecimento facial para identificar criminosos.
Disponível em: https://canaltech.com.br/inovacao/policia-do-rj-adota-sistema-de-reconhecimento-facial-para-
identificar-criminosos-129511/. Acesso em: 19 abr. 2020.
38
Em razão da contemporaneidade e volatilidade do tema, algumas notícias são utilizadas no presente texto
almejando, tão somente, ilustrar questões atinentes ao panorama avaliado.
39
MICROSOFT. How Microsoft computer scientists and researchers are working to ‘solve‘ cancer.
Disponível em: https://news.microsoft.com/stories/computingcancer/. Acesso em: 19 set. 2019.
40
UOL. Coronavírus: inteligência artificial monitora sintomas em multidões. Disponível em:
https://www.uol.com.br/tilt/noticias/redacao/2020/03/20/coronavirus-inteligencia-artificial-monitora-sintomas-
em-multidoes.htm. Acesso em: 29 mai. 2020.
41
Black box é um termo inglês utilizado para designar a opacidade e a incompreensão do funcionamento dos
sistemas de inteligência artificial.
26
Uma vez que o processo legal pode ser visto abstratamente como uma computação,
introduzindo informações sobre evidências e leis e gerando uma decisão, alguns
estudiosos sonham em automatizá-lo totalmente com “robojudges”: sistemas de
Inteligência Artificial que aplicam incansavelmente os mesmos padrões legais a
42
“We can build these models but we don’t know how they work”. KNIGHT, Will. The dark secret at the
heart of AI. Disponível em: https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/
Acesso em: 26 set. 2019.
43
CONJUR. STJ cria sistema de inteligência artificial para agilizar processos. Disponível em:
https://www.conjur.com.br/2018-jun-14/stj-cria-sistema-inteligencia-artificial-agilizar-processos Acesso em: 3
jun. 2020.
44
INFOMONEY. Primeiro robô advogado lançado por empresa brasileira; conheça. Disponível em:
https://www.infomoney.com.br/negocios/inovacao/noticia/6757258/primeiro-robo-advogado-brasil-lancado-por-
empresa-brasileira-conheca Acesso em: 8 jul. 2019.
45 SUPREMO TRIBUNAL FEDERAL. Inteligência artificial vai agilizar a tramitação de processos no STF.
Disponível em: http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp?idConteudo=380038. Acesso em: 2 jul.
2019.
46
G1. Como as robôs Alice, Sofia e Mônica ajudam o TCU a caçar irregularidades em licitações.
Disponível em: https://g1.globo.com/economia/tecnologia/noticia/como-as-robos-alice-sofia-e-monica-ajudam-
o-tcu-a-cacar-irregularidades-em-licitacoes.ghtml. Acesso em: 4 jul. 2019.
27
Não obstante o destaque que a IA obteve nos últimos anos no que tange ao Direito, a
ideia de computação da norma jurídica remonta aos trabalhos de Loevinger, na década de 40,
tendo a prática e a sistematização de aplicações informáticas ao Direito iniciado efetivamente
ocorrido na década de 60, com a mechanical jurisprudence e a jurimetrics50.
(...) permitir que uma máquina tome determinada decisão em âmbito jurisdicional só
seria possível se se concebesse o processo jurisdicional como uma mera escolha
dentre as várias disponíveis, e sem que se considerasse a importância da
hermenêutica e dos valores (éticos, sociais e morais) para tal processo51.
A crítica se fundamenta na ideia de que a decisão dada por um software não engloba
efetivamente a hermenêutica e a axiologia constitucional que norteiam o ordenamento, o que
47
Since the legal process can be abstractly viewed as a computation, inputting information about evidence and
laws and outputting a decision, some scholars dream of fully automating it with robojudges: AI systems that
tirelessly apply the same high legal standards to every judgment without succumbing to human errors such as
bias, fatigue or lack of the latest knowledge .“ TEGMARK, Max. Life 3.0. Being human in the age of artificial
intelligence. New York: Alfred A. Knopf, 2017, p. 70.
48
VALOR ECONÔMICO. CNJ implanta centro de inteligência artificial. Disponível em:
https://www.valor.com.br/legislacao/6164601/cnj-implanta-centro-de-inteligencia-artificial?origem=G1. Acesso
em: 2 jul. 2019.
49
CONSELHO NACIONAL DE JUSTIÇA. Resolução n. 332, de 21 de agosto de 2020. Disponível em:
https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 1 set. 2020.
50
MAGALHÃES, Renato Vasconcelos. Inteligência artificial e Direito – uma breve introdução histórica.
Revista Direito e Liberdade. Mossoró: v. 1, n. 1, p. 355-370, jul./dez. 2005.
51
OLIVEIRA, Samuel Rodrigues De; COSTA, Ramon Silva. Pode a máquina julgar? Considerações sobre o uso
de inteligência artificial no processo de decisão judicial. Revista de Argumentação e Hermenêutica Jurídica.
Porto Alegre, v. 4, n. 2, p. 21-39, jul./dez 2018.
28
Desse modo, a IA vem acarretando reflexos que impactam cada vez mais direitos e
garantias fundamentais, seja no Judiciário, seja de modo extrajudicial. Nesse cenário, políticas
públicas de reconhecimento facial vêm sendo implantadas e desencadeiam profundos debates
acerca de conflitos entre noções de privacidade e deveres estatais de proteção e segurança,
máxime tendo em vista o atual estado de incipiência da técnica de reconhecimento, não sendo
incomum a ocorrência de falhas52.
Mas a inteligência artificial não se restringe aos episódios de ficção científica e de alta
sofisticação; até mesmo quando o consumidor se dirige a uma farmácia ou padaria e fornece
seu CPF em troca de um cupom de descontos, usualmente há atividade de IA que, por meio
de seu algoritmo, recolhe os dados fornecidos pelo cliente e dá uma resposta otimizada
naquela situação. A abrangência desse fenômeno, portanto, é exponencial e não há nenhum
indício de que seja possível refrear sua aceleração.
52
O GLOBO. Reconhecimento facial falha em segundo dia: mulher inocente é confundida com criminosa
já presa. Disponível em: https://oglobo.globo.com/rio/reconhecimento-facial-falha-em-segundo-dia-mulher-
inocente-confundida-com-criminosa-ja-presa-23798913. Acesso em: 22 mar. 2020.
29
53
FARIAS, Cristiano Chaves; ROSENVALD, Nelson; NETTO, Felipe Peixoto Braga. Curso de Direito Civil:
Responsabilidade Civil. 3. ed. São Paulo: Atlas, 2016, p. 20.
54
THE NEW YORK TIMES. Knight Capital Says Trading Glitch Cost It $440 Million. Disponível em:
https://dealbook.nytimes.com/2012/08/02/knight-capital-says-trading-mishap-cost-it-440-million/?hp] Acesso
em: 19 nov. 2019.
55
THE GUARDIAN. Robot fails to find a place in the sun. Disponível em:
https://www.theguardian.com/uk/2002/jun/20/engineering.highereducation Acesso em: 19 nov. 2019.
56
VEJA. Exposto à internet, robô da Microsoft vira racista em 1 dia. Disponível em:
https://veja.abril.com.br/tecnologia/exposto-a-internet-robo-da-microsoft-vira-racista-em-1-dia/. Acesso em: 29
mai. 2020.
57
THE GUARDIAN. Robot kills factory worker. Disponível em:
https://www.theguardian.com/theguardian/2014/dec/09/robot-kills-factory-worker Acesso em: 19 nov. 2019.
58
Considera-se que tais situações sofrerão os respectivos influxos da relação trabalhista, não sendo, contudo, a
análise de tais dispositivos objeto da presente dissertação.
30
outro trabalhador morto em condições semelhantes numa fábrica da Ford nos Estados Unidos
da América; sua família foi indenizada pela empregadora em 10 milhões de dólares59.
É inegável que a tecnologia assume vasta relevância no contexto social contemporâneo,
não havendo como assegurar que sua atividade será sempre impecável, mormente
considerando que já aconteceram inúmeros casos fatais60. Por exemplo, uma mulher alemã
faleceu após não ser admitida para tratamento em um hospital porque os aparelhos da
instituição estavam bloqueados em razão de um ataque de hackers61, o que evidencia a
necessidade de robustez técnica no tratamento dos sistemas.
Nesse sentido, argumenta-se: “um ponto importante a se ter em mente: logo veremos
que alcançar a racionalidade perfeita ‒ sempre fazendo a coisa certa ‒ não é possível em
ambientes complicados. As demandas computacionais são simplesmente muito altas”
(tradução livre)62. No mesmo trilhar, autores como Hubert Dreyfus e Joseph Weizenbaum
suscitaram, respectivamente, críticas à inteligência artificial no sentido das suas limitações e
inconsistências, bem como da sua imoralidade63.
59
WIRED. Robot kills human. Disponível em: https://www.wired.com/2010/01/0125robot-kills-worker/
Acesso em: 19 nov. 2019.
60
G1. Robô agarra e mata trabalhador dentro de fábrica da Volkswagen. Disponível em:
http://g1.globo.com/mundo/noticia/2015/07/robo-agarra-e-mata-trabalhador-dentro-de-fabrica-da-
volkswagen.html. Acesso em: 26 set. 2019; UOL. Shopping suspende uso de robôs de segurança após
acidente com criança. https://gizmodo.uol.com.br/shopping-robos-acidente-crianca/ Acesso em: 19 nov. 2019.
61
R7. Mulher alemã pode ser a primeira vítima fatal de um ciberataque. Disponível em:
https://noticias.r7.com/tecnologia-e-ciencia/fotos/mulher-alema-pode-ser-a-primeira-vitima-fatal-de-um-
ciberataque-20092020#!/foto/10. Acesso em: 1 out. 2020.
62
“One important point to keep in mind: we will see before too long that achieving perfect rationality ‒ always
doing the right thing ‒ is not possible in complicated environments. The computational demands are just too
high.” NORVIG, Peter; RUSSELL, Stuart J. Artificial Intelligence: A Modern Approach. New Jersey:
Prentice Hall, 1995, p. 8.
63
HENDERSON, Harry. Artificial intelligence: mirrors for the mind. New York: Chelsea House Publishers,
2007, p. 118-144.
64
DIOP, Lamine. CUPE, Jean. Explainable AI: The data scientist’s new challenge. Disponível em:
https://towardsdatascience.com/explainable-ai-the-data-scientists-new-challenge-f7cac935a5b4. Acesso em: 19
nov. 2019.
31
65
“1) The objective of AI to preserve itself in order to maximize the satisfaction of its present final goals; 2) the
objective of AI to preserve the content of its current final goals; otherwise, if the content of its final goals is
changed, it will be less likely to act in the future to maximize the satisfaction of its present final goals; 3) the
objective of AI to improve its own rationality and intelligence in order to improve its decision-making, and
thereby increase its capacity to achieve its final goals; 4) the objective of AI to acquire as many resources as
possible, so that these resources can be transformed and put to work for the satisfaction of AI’s final goals”.
CERKA, Paulius; GRIGIENE, Jurgita; SIRBIKYTE, Gintare. Liability for damages caused by artificial
intelligence. Computer Law and Security Review. United Kingdom, v. 31, p. 376-389, 2015.
66
POLITIFACT. African-Americans don't use drugs at a higher level than whites but "wind up going to
prison six times more. Disponível em: https://www.politifact.com/punditfact/statements/2016/jul/13/van-
jones/van-jones-claim-drug-use-imprisonment-rates-blacks/ Acesso em: 14 mai. 2019.
67
A referência criminal é feita somente a título ilustrativo, no intuito de demonstrar o funcionamento e a
abrangência da inteligência artificial, não sendo, entretanto, objeto de análise da presente dissertação a relação de
tal tecnologia com o Direito Penal.
68
PROPUBLICA. Machine bias. Disponível em: https://www.propublica.org/article/machine-bias-risk-
assessments-in-criminal-sentencing. Acesso em: 14 mai. 2019.
32
equivocadamente réus negros como futuros criminosos, rotulando-os quase duas vezes mais
como criminosos de alto risco, mesmo quando não reincidiam de fato. A empresa responsável
pelo desenvolvimento do sistema refutou as acusações e aduziu que as conclusões foram
extraídas por meio de um questionário de 137 perguntas respondidas pelos réus ou colhidas de
registros criminais.
É imprescindível que a utilização da IA no âmbito judicial ocorra de forma transparente,
tendo em vista o princípio da publicidade na Administração Pública, estampado no art. 37 da
Constituição Federal. Só é possível questionar os fundamentos de uma decisão automatizada
quando se conhecem os critérios previamente estipulados. Não se ignoram, contudo, as
dificuldades que podem surgir em face da propriedade intelectual do programador. Seria
igualmente desejável que a autoridade responsável pela custódia de tais dados os tratasse com
sigilo, bem como todas as partes envolvidas na verificação das questões que se fizessem
necessárias.
É possível que surjam simplificações inadequadas em face de situações sociais
complexas que exigem um raciocínio mais aprofundado, o que demanda um papel proativo e
cauteloso do programador, que busque assegurar ampla representação nos dados, para que
seja possível reduzir distorções e assegurar condições imparciais.
Evidencia-se, nesse ponto, a necessidade de abertura do sistema jurídico para argumentos
pragmáticos e éticos, desvinculando-se de uma perspectiva hermética que se funda em dados
limitados, para que se possa assegurar um efetivo controle social. Com efeito, sob a
perspectiva de Ulrich Beck em sua obra A sociedade de risco, a sociedade contemporânea é
marcada por perigos que se situam na imbricação entre construções científicas e sociais,
sendo o desenvolvimento tecnológico uma fonte de causa, definição e solução de riscos. O
risco passa a ser um mecanismo que se retroalimenta: enquanto é causa de inúmeras
contingências desconhecidas, a solução de tais impasses é desenvolvida por meio de
mecanismos que, por sua vez, também incrementam outros riscos.
É imperioso que sejam desenvolvidos mecanismos de precaução e mitigação,
considerando que a presença do risco é inevitável. O âmago da obra de Beck é a
inevitabilidade da construção de riscos na sociedade moderna e sua potencialidade de ameaça
global. A IA deve assumir, nesse contexto, protagonismo na tentativa de mitigação e
gerenciamento de crises.
Parte-se da perspectiva de que a tecnologia é um paradoxo, ao passo que
simultaneamente é fator de causa e solução de riscos aos direitos fundamentais. Ela pode
33
69
UOL. Técnicas de vigilância como identificação fácil ainda são falhas. Disponível em:
https://www.uol.com.br/tilt/noticias/redacao/2019/05/27/tecnicas-de-vigilancia-como-identificacao-facial-ainda-
sao-falhas.htm. Acesso em: 20 mar. 2020.
70
G1. Sistema de reconhecimento facial da PM do RJ falha e mulher é detida por engano. Disponível em:
https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/07/11/sistema-de-reconhecimento-facial-da-pm-do-rj-falha-e-
mulher-e-detida-por-engano.ghtml e startse.com/noticia/ecossistema/reconhecimento-facial-policia-londres
Acesso em: 20 mar. 2020.
71
JONAS, Hans. O princípio responsabilidade: ensaio de uma ética para a civilização tecnológica. Rio de
Janeiro: Contraponto: Ed. PUC-Rio, 2006, p. 86.
72
“De otro lado, en la sociedad tecnológica de nuestro tiempo los ciudadanos más sensibles a la defensa de los
derechos fundamentales se sienten crispados o atemorizados porque advierten que las conquistas del progreso se
ven contrapuntadas por graves amenazas para su libertad, su identidad o incluso su propia supervivencia. La
ciencia y la tecnología han mantenido en los últimos años un ritmo de crecimiento exponencial, que no siempre
ha tenido puntual reflejo en la evolución de la consciencia ética de la humanidad. Por ello, las trampas
liberticidas subyacentes en determinados empleos abusivos de la cibernética o de la informática, el peligro de la
catástrofe ecológica, o la psicosis de angustia que genera la amenaza latente de un conflicto atómico, son el
34
Noutro norte, é imprescindível que sejam avaliados os critérios usados pelos sistemas de
IA, uma vez que podem sofrer inclusões de modelos com vieses inadequados que ensejam
preconceitos e discriminações contra certos grupos, exacerbando problemas estruturais de
marginalização.
Os vieses discriminatórios devem ser tolhidos já na fase de coleta, de modo que os
critérios a serem utilizados no processamento da IA estejam livres de tais falhas. É
importante, assim, que a base de dados seja inclusiva no que tange às diversas culturas e
origens. Tais problemas também podem ser mitigados com supervisões que analisem
finalidade, restrições, requisitos e decisões do sistema de maneira coerente e transparente:
É fácil perceber que, se forem utilizados no modelo estatístico dados com alto
potencial discriminatório, tais como dados raciais, étnicos ou de orientação sexual,
haverá um grande risco de que a decisão que resultará do processo automatizado
(output) também seja discriminatória. Esses dados são os chamados dados sensíveis,
cujo processamento é limitado pelas legislações de proteção de dados de vários
países, assim como pelo Regulamento Europeu de Dados Pessoais. Em segundo
lugar, é preciso observar que o próprio método utilizado nas decisões automatizadas
– por meio da classificação e seleção dos indivíduos – gera um risco de se
produzirem resultados discriminatórios, ainda que de forma não intencional. Isto
pode ocorrer porque, na discriminação estatística, teoria econômica que se tornou
conhecida a partir dos textos de Edmund Phelps (1972) e Kenneth Arrow (1973), os
indivíduos são diferenciados com base em características prováveis de um grupo, no
qual esse indivíduo é classificado. Essa prática se baseia em métodos estatísticos,
que associam esses atributos a outras características, cuja identificação pelo tomador
de decisão é mais difícil, como nível de renda, risco de inadimplência, produtividade
no trabalho, etc. (BRITZ, 2008, p. 15). Nesse contexto, é possível a ocorrência da
discriminação por erro estatístico, o que decorreria tanto de dados incorretamente
capturados como também de modelo estatístico de bases científicas frágeis (BRITZ,
2008) 73.
trasfondo terrible que amenaza el pleno ejercicio de los derechos fundamentales y acecha con invalidar los
logros del progreso”. LUÑO, Antonio E. Perez. Los derechos fundamentales. Madrid: Tecnos, 1995, p. 28.
73
DONEDA, Danilo Cesar Maganhoto; MENDES, Laura Schertel; SOUZA, Carlos Affonso Pereira de;
ANDRADE, Norberto Nuno Gomes de. Considerações iniciais sobre inteligência artificial, ética e autonomia
pessoal. Pensar. Fortaleza, v. 23, n. 4, p. 1-17, out./dez. 2018.
35
Em que pese o atual vácuo normativo no que tange à regulação da inteligência artificial
no Brasil, outros países já vêm apresentando documentos normativos que visam, ainda que de
maneira não vinculante, estabelecer princípios e diretrizes ao desenvolvimento dessa
tecnologia. Doravante, serão analisados os principais documentos internacionais em tais
países sobre a matéria, em virtude de estabelecerem parâmetros compatíveis com o
ordenamento jurídico brasileiro, cuja reprodução pode ajudar a construir bases sólidas para
um desenvolvimento tecnológico harmonizável com a função social.
Nesse sentido, no dia 8 de abril de 2019, a Comissão Europeia divulgou diretrizes éticas
para a inteligência artificial (IA) confiável, documento que se baseia no trabalho do Grupo
Europeu de Ética na Ciência e Novas Tecnologias e outros esforços similares. A Comissão
74
DONEDA, Danilo Cesar Maganhoto; MENDES, Laura Schertel; SOUZA, Carlos Affonso Pereira de;
ANDRADE, Norberto Nuno Gomes de. Considerações iniciais sobre inteligência artificial, ética e autonomia
pessoal. Pensar. Fortaleza, v. 23, n. 4, p. 1-17, out./dez. 2018.
75
A opção metodológica de análise da recepção da inteligência artificial na Europa e nos Estados Unidos da
América fundamenta-se na constatação de que os maiores documentos que visam disciplinar o fenômeno são
oriundos de tais localidades.
36
Europeia é uma instituição que, entre outras funções, propõe legislações e programas de ação
no contexto europeu76.
76
COMISSÃO EUROPEIA. Disponível em: https://ec.europa.eu/info/index_pt. Acesso em: 8 ago. 2020.
77
COMISSÃO EUROPEIA. Disponível em: https://ec.europa.eu/info/research-and-innovation/strategy/support-
policy-making/scientific-support-eu-policies/ege_en. Acesso em: 8 ago. 2020.
78
HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE SET UP BY THE EUROPEAN
COMMISSION ETHICS GUIDELINE. Ethics Guidelines for trustworthy AI. Disponível em:
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai. Acesso em: 4 mai. 2019.
37
tecnologia da informação, a fim de garantir que produtos possam ser avaliados por
laboratórios credenciados, de modo que os certificados emitidos sejam reconhecidos por todos
os países signatários79, concretizando, assim, a ideia de auditoria global.
No item 2.2, o documento também elenca princípios a serem observados no
desenvolvimento da inteligência artificial. Nesse sentido, elenca-se o princípio do respeito
pela autonomia humana: “os seres humanos que interagem com os sistemas de IA devem ser
capazes de manter uma autodeterminação plena e efetiva sobre si mesmos e poder participar
do processo democrático (tradução livre)80”. Não poderia haver, portanto, subordinação ou
manipulação dos seres humanos por meio da inteligência artificial, devendo esta servir para
complementar e fomentar as habilidades cognitivas, sociais e culturais dos agentes, deixando
margem de escolha ao ser humano.
79
GUTIERREZ, Andriei. É possível confiar em um sistema de inteligência artificial? Práticas em torno da
melhoria da sua confiança, segurança e evidências e accountability. In: FRAZÃO, Ana. MULHOLLAND,
Caitlin. Inteligência artificial e Direito: Ética, Regulação e Responsabilidade. São Paulo: Thomson Reuters
Brasil, 2019, p. 89.
80
“Humans interacting with AI systems must be able to keep full and effective self-determination over
themselves, and be able to partake in the democratic process”. HIGH-LEVEL EXPERT GROUP ON
ARTIFICIAL INTELLIGENCE SET UP BY THE EUROPEAN COMMISSION ETHICS GUIDELINE. Ethics
Guidelines for trustworthy AI. Disponível em: https://ec.europa.eu/digital-single-market/en/news/ethics-
guidelines-trustworthy-ai. Acesso em: 4 mai. 2019, p. 12.
81
G1. WhatsApp detecta vulnerabilidade que permite o acesso de hackers a celulares. Disponível em:
https://g1.globo.com/economia/tecnologia/noticia/2019/05/14/whatsapp-detecta-vulnerabilidade-que-permite-o-
acesso-de-hackers-a-celulares.ghtml. Acesso em: 12 mai. 2019.
82
MIGALHAS. Instituto pede que Facebook seja condenado em 150 milhões. Disponível em:
https://www.migalhas.com.br/Quentes/17,MI302322,71043-
Instituto+pede+que+Facebook+seja+condenado+em+R+150+milhoes+por. Acesso em: 13 mai. 2019.
38
o pleno exercício dos direitos de liberdade do indivíduo depende também do controle que
possui acerca da circulação de seus dados, especialmente considerando que a manipulação dos
dados pessoais pode acarretar uma representação que simboliza o indivíduo perante o meio
social.
As Diretrizes também referem o princípio da justiça, suscitando que tal princípio deve
possuir dimensão substantiva e processual. A dimensão substantiva implica o compromisso de
distribuição igualitária e equânime de benefícios e custos, bem como a ausência de
discriminações e estigmatizações, na observância da proporcionalidade entre fins e meios e no
equilíbrio entre objetivos concorrentes.
Vale ressaltar que, na condição de soft law no plano internacional, não há que se falar
em imposição de sanções específicas quando houver descumprimento das Diretrizes. Com
efeito, o Estado poderá ser alijado de compromissos e sofrer represálias da comunidade
83
“This means that processes need to be transparent, the capabilities and purpose of AI systems openly
communicated, and decisions – to the extent possible – explainable to those directly and indirectly affected.
Without such information, a decision cannot be duly contested. An explanation as to why a model has generated
a particular output or decision (and what combination of input factors contributed to that) is not always possible.
These cases are referred to as ‘black box’ algorithms and require special attention. In those circumstances, other
explicability measures (e.g. traceability, auditability and transparent communication on system capabilities) may
be required, provided that the system as a whole respects fundamental rights. The degree to which explicability
is needed is highly dependent on the context and the severity of the consequences if that output is erroneous or
otherwise inaccurate”. HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE SET UP BY THE
EUROPEAN COMMISSION ETHICS GUIDELINE. Ethics Guidelines for trustworthy AI. Disponível em:
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai. Acesso em: 4 mai. 2019, p.
15.
84
Art. 6º. São direitos básicos do consumidor. (...) III - a informação adequada e clara sobre os diferentes
produtos e serviços, com especificação correta de quantidade, características, composição, qualidade, tributos
incidentes e preço, bem como sobre os riscos que apresentem.
39
José Barros Correia Júnior trata dos stakeholders sob a perspectiva de que a empresa é
uma atividade concentradora de interesses múltiplos, indo além do tradicional negócio de
interesses exclusivos dos investidores85. Nesse cenário, sobressai o cumprimento do soft law,
uma vez que atender aos interesses dos stakeholders envolvidos é primordial para o alcance
da responsabilidade social da empresa no plano internacional.
85
CORREIA JÚNIOR, José Barros. A função social e a responsabilidade social da empresa perante os
stakeholders. 2013. Tese (Doutorado em Direito). Pós-Graduação em Direito da Faculdade de Direito de Recife
da Universidade Federal de Pernambuco, Recife, p. 173.
86
EUROPEAN PARLIAMENTARY RESEARCH SERVICE, Civil liability regime for artificial intelligence.
Disponível em:
https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654178. Acesso em:
29 set. 2020.
40
direitos fundamentais, bem como garantindo a livre circulação de bens e serviços baseados
em inteligência artificial, para evitar imposições de restrições impertinentes.
2.4.1. Fronteiras entre a Lei nº 13.709/18 e o General Data Protection Regulation (GDPR)
87
MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto
Alegre: Arquipélago Editorial, 2019, p. 102.
88
Edward Joseph Snowden é um analista de sistemas, ex-administrador de sistemas da Agência Central de
Inteligência americana e ex-contratado da Agência de Segurança Nacional dos EUA. Publicizou uma série de
41
americano em nível mundial, que atingiu chefes de Estado, como os do Brasil (Dilma
Rousseff, à época) e da Alemanha (Angela Merkel); estes apresentaram à Assembleia Geral
da ONU uma proposta com regras para proteger o direito à privacidade na era digital89.
Os princípios do GDPR e da Lei nº 13.709/18 (Lei Geral de Proteção de Dados –
LGPD) são extremamente semelhantes e partem do pressuposto de tutela da privacidade em
uma sociedade democrática90, de modo que a experiência europeia pode trazer influxos
positivos para a construção de um sistema de proteção de dados no Brasil. A LGPD importa a
essência dos princípios do GDPR, tornando-se evidente a inspiração europeia na formulação
do diploma legislativo brasileiro.
A LGPD, no art. 6º, traz como princípios a finalidade, a adequação, a necessidade, o
livre acesso, a qualidade dos dados, a transparência, a segurança, a não discriminação, a
responsabilização e a prestação de contas. Além desses princípios, esse artigo menciona
expressamente a licitude, a lealdade, a limitação da conservação, a integridade e a
confidencialidade.
Ambos os diplomas normativos são aplicáveis às entidades públicas e privadas que
tratam os dados pessoais, prevendo direitos atribuíveis aos titulares cujos dados são
processados, disciplinam obrigações aos agentes de tratamento e estabelecem sanções em face
do descumprimento.
O documento assume relevância tendo em vista que os dados são o efetivo combustível
da inteligência artificial, caracterizando o que se chama de Big Data. A expressão pode ser
conceituada como um grande conjunto de dados, cada vez mais alimentado graças à presença
de dispositivos sensores na vida cotidiana e o crescente número de indivíduos conectados a
essas tecnologias por meio de redes digitais91.
A experiência da disciplina europeia não se resume ao GDPR. Em Portugal92, a Lei nº
58/2019 visa assegurar, na ordem jurídica nacional, a observância da regularidade no que diz
respeito ao tratamento de dados pessoais e à circulação desses dados. Para tanto, determina a
programas que constituíam um sistema de vigilância global da Agência americana, cujos detalhes, em síntese,
podem ser encontrados na obra “Eterna vigilância: como montei e desvendei o maior sistema de espionagem do
mundo” (2019) e no filme “Snowden: herói ou traidor” (2016), dirigido por Oliver Stone.
89
MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto
Alegre: Arquipélago Editorial, 2019, p. 91.
90
MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto
Alegre: Arquipélago Editorial, 2019, p. 103.
91
ITS Rio 2016. Big Data in the Global South Project Report on the Brazilian Case Studies. Disponível em:
https://itsrio.org/wp-content/uploads/2017/01/Big-Data-in-the-Global-South-Project.pdf. Acesso em: 3 nov.
2019.
92
O corte metodológico que selecionou o diploma português se deu em virtude das similaridades das disposições
com a legislação brasileira e da proximidade do idioma.
42
criação, em seu art. 4º93, de uma autoridade de controle nacional, estipulando, ainda, o dever
das entidades públicas e privadas de colaborarem com tal autoridade.
A autoridade terá, entre outras atribuições, nos termos do art. 6º94, a competência para se
pronunciar, a título não vinculativo, sobre as medidas legislativas e regulamentares relativas à
proteção de dados, fiscalizar o cumprimento das disposições do GDPR, disponibilizar uma
lista de tratamentos sujeitos à avaliação do impacto sobre proteção de dados, elaborar e
apresentar critérios para credibilidade dos organismos de monitorização de códigos de
conduta e de certificação.
Nesse contexto, observa-se que a Europa tem manifestado preocupação com os
fenômenos digitais e suas potenciais violações de direitos, delineando um marco regulatório
que visa salvaguardar os interesses jurídicos envolvidos num contexto democrático. Isso não
significa que outros países não estejam definindo regulações sobre o fenômeno. Nesse ponto,
impende analisar o marco regulatório dos Estados Unidos da América sobre a matéria.
Nos Estados Unidos da América foi realizada em 2017 uma conferência em Asilomar,
Califórnia95, cujo objetivo era definir princípios para o desenvolvimento de programas de
93
A CNPD é uma entidade administrativa independente, com personalidade jurídica de direito público e poderes
de autoridade, dotada de autonomia administrativa e financeira, que funciona junto da Assembleia da República.
2 ‒ A CNPD controla e fiscaliza o cumprimento do RGPD e da presente lei, bem como das demais disposições
legais e regulamentares em matéria de proteção de dados pessoais, a fim de defender os direitos, liberdades e
garantias das pessoas singulares no âmbito dos tratamentos de dados pessoais. 3 ‒ A CNPD age com
independência na prossecução das suas atribuições e no exercício dos poderes que lhe são atribuídos pela
presente lei. 4 ‒ Os membros da CNPD ficam sujeitos ao regime de incompatibilidades estabelecido para os
titulares de altos cargos públicos, não podendo, durante o seu mandato, desempenhar outra atividade,
remunerada ou não, com exceção da atividade de docência no ensino superior e de investigação.
94
1 ‒ Para além do disposto no artigo 57.º do RGPD, a CNPD prossegue as seguintes atribuições: a) Pronunciar -
se, a título não vinculativo, sobre as medidas legislativas e regulamentares relativas à proteção de dados pessoais,
bem como sobre instrumentos jurídicos em preparação, em instituições europeias ou internacionais, relativos à
mesma matéria; b) Fiscalizar o cumprimento das disposições do RGPD e das demais disposições legais e
regulamentares relativas à proteção de dados pessoais e dos direitos, liberdades e garantias dos titulares dos
dados, e corrigir e sancionar o seu incumprimento; c) Disponibilizar uma lista de tratamentos sujeitos à avaliação
do impacto sobre a proteção de dados, nos termos do n.º 4 do artigo 35.º do RGPD, definindo igualmente
critérios que permitam densificar a noção de elevado risco prevista nesse artigo; d) Elaborar e apresentar ao
Comité Europeu para a Proteção de Dados, previsto no RGPD, os projetos de critérios para a acreditação dos
organismos de monitorização de códigos de conduta e dos organismos de certificação, nos termos dos artigos
41.º e 43.º do RGPD, e assegurar a posterior publicação dos critérios, caso sejam aprovados; e) Cooperar com o
Instituto Português de Acreditação, I. P. (IPAC, I. P.), relativamente à aplicação do disposto no artigo 14.º da
presente lei, bem como na definição de requisitos adicionais de acreditação, tendo em vista a salvaguarda da
coerência de aplicação do RGPD;
95
A opção metodológica pela conferência efetuada na Califórnia se deu em virtude de ser uma região de alto
investimento em tecnologia, inovação e inteligência artificial, berço do Vale do Silício.
43
96
FUTURE OF LIFE INSTITUTE. Asilomar AI principles. Disponível em: https://futureoflife.org/ai-
principles/. Acesso em: 5 nov. 2019.
97
2) Financiamento da pesquisa: Os investimentos em IA devem ser acompanhados de financiamento para
pesquisas que garantam seu uso benéfico, incluindo perguntas espinhosas em ciência da computação, economia,
direito, ética e estudos sociais, como: como podemos tornar os futuros sistemas de IA altamente robustos, para
que eles façam o que queremos sem funcionar mal ou ser invadidos? Como podemos aumentar nossa
prosperidade por meio da automação, mantendo os recursos e o propósito das pessoas? Como podemos atualizar
nossos sistemas legais para que sejam mais justos e eficientes, para acompanhar a IA e gerenciar os riscos
associados à IA? Com que conjunto de valores a AI deve ser alinhada e qual status legal e ético deve ter? 3)
Link Ciência-Política: Deveria haver um intercâmbio construtivo e saudável entre pesquisadores da IA e
formuladores de políticas. 4) Cultura de Pesquisa: Uma cultura de cooperação, confiança e transparência deve
ser promovida entre pesquisadores e desenvolvedores de IA. (Tradução livre). 2) Research Funding: Investments
in AI should be accompanied by funding for research on ensuring its beneficial use, including thorny questions
in computer science, economics, law, ethics, and social studies, such as: How can we make future AI systems
highly robust, so that they do what we want without malfunctioning or getting hacked? How can we grow our
prosperity through automation while maintaining people’s resources and purpose? How can we update our legal
systems to be more fair and efficient, to keep pace with AI, and to manage the risks associated with AI? What set
of values should AI be aligned with, and what legal and ethical status should it have? 3) Science-Policy Link:
There should be constructive and healthy exchange between AI researchers and policy-makers. 4) Research
Culture: A culture of cooperation, trust, and transparency should be fostered among researchers and developers
of AI.
98
10) Alinhamento de valor: Os sistemas de IA altamente autônomos devem ser projetados para garantir que
seus objetivos e comportamentos possam se alinhar aos valores humanos durante toda a operação. 11) Valores
humanos: Os sistemas de IA devem ser projetados e operados de modo a serem compatíveis com os ideais de
dignidade humana, direitos, liberdades e diversidade cultural. (Tradução livre). 10) Value Alignment: Highly
autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human
values throughout their operation. 11) Human Values: AI systems should be designed and operated so as to be
compatible with ideals of human dignity, rights, freedoms, and cultural diversity.
99
14) Benefício compartilhado: as tecnologias de IA devem beneficiar e capacitar o maior número possível de
pessoas. (Tradução livre). 14) Shared Benefit: AI technologies should benefit and empower as many people as
possible.
44
100
Um exemplo sempre suscitado como dilema ético é a questão dos carros autônomos. Carro autônomo é
aquele dotado de sistema de piloto automático, o que lhe permite mover-se de um lugar para outro sem o auxílio
de um motorista humano. É inevitável que eventualmente aconteçam situações de acidentes ou escolhas trágicas.
Como deve um carro autônomo ser programado para agir em face de um acidente inevitável? Imagine-se a
situação em que surge um grupo de transeuntes na rota do veículo, não havendo, no caso concreto, possibilidade
de evitar um acidente. O veículo deve, então, fazer uma escolha: permanecer na rota e atropelar os transeuntes ou
desviar a rota e colidir com outros veículos ou até com outras pessoas. Deve o veículo desviar a rota e priorizar a
perda mínima de vidas? Deve manter a rota? E se o desvio acarretar a supressão da vida ou da integridade física
do proprietário, deveria o veículo manter o desvio ainda assim?
101
FELIPE, Bruno Farage da Costa. Direito dos robôs, tomadas de decisões e escolhas morais: algumas
considerações acerca da necessidade de regulamentação ética e jurídica da inteligência artificial. Revista Juris
Poiesis. Rio de Janeiro: vol. 20, n. 22, p. 150-169, 2017, p. 12.
102
A discussão acerca dos veículos autônomos é expansiva e não constitui objeto de análise específica do
presente trabalho, servindo apenas como ilustração para suscitar as questões éticas que permeiam o debate.
103
17) Não subversão: o poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e
melhorar, em vez de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade. (Tradução
livre). 17) Non-subversion: The power conferred by control of highly advanced AI systems should respect and
improve, rather than subvert, the social and civic processes on which the health of society depends.
104
18) Corrida de armas da IA: Uma corrida armamentista em armas autônomas letais deve ser evitada.
(Tradução livre). 18) AI Arms Race: An arms race in lethal autonomous weapons should be avoided.
45
105
21) Riscos: Os riscos apresentados pelos sistemas de IA, especialmente os riscos catastróficos ou existenciais,
devem estar sujeitos a esforços de planejamento e mitigação proporcionais ao impacto esperado. (Tradução
livre). 21) Risks: Risks posed by AI systems, especially catastrophic or existential risks, must be subject to
planning and mitigation efforts commensurate with their expected impact.
106
22) Autoaperfeiçoamento recursivo: Os sistemas de IA projetados para automelhorar recursivamente ou
autorreplicar de uma forma que possa levar a um aumento rápido da qualidade ou quantidade devem estar
sujeitos a rigorosas medidas de segurança e controle. (Tradução livre). 22) Recursive Self-Improvement: AI
systems designed to recursively self-improve or self-replicate in a manner that could lead to rapidly increasing
quality or quantity must be subject to strict safety and control measures.
107
“The term “automated decision system” means computerized implementations of algorithms, including those
derived from machine learning or other data processing or artificial intelligence techniques, which are used to
make or assist in making decisions.” Disponível em:
https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-
461253F9C6D0. Acesso em: 6 nov. 2019.
108
(a) Critérios para identificar quais sistemas de decisão automatizados da agência devem estar sujeitos a um ou
mais dos procedimentos recomendados por essa força-tarefa nos termos deste parágrafo; (a) Criteria for
identifying which agency automated decision systems should be subject to one or more of the procedures
recommended by such task force pursuant to this paragraph; Disponível em:
https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-
461253F9C6D0. Acesso em: 6 nov. 2019.
109
(b) Desenvolvimento e implementação de um procedimento através do qual uma pessoa afetada por uma
decisão relativa a uma regra, política ou ação implementada pela cidade, onde tal decisão foi tomada por ou com
a assistência de um sistema automatizado de decisão da agência, possa solicitar e receber uma explicação dessa
decisão e a base dela; (b) Development and implementation of a procedure through which a person affected by a
decision concerning a rule, policy or action implemented by the city, where such decision was made by or with
the assistance of an agency automated decision system, may request and receive an explanation of such decision
and the basis therefor; Disponível em:
https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-
461253F9C6D0. Acesso em: 6 nov. 2019.
46
sistema automatizado possui atividade desproporcional e que afeta as pessoas com base em
critérios não isonômicos110, além de um procedimento para tratar tais casos111, à
disponibilização de informações públicas que permitam a avaliação de como o sistema
funciona, inclusive no que tange aos critérios técnicos112, e, por fim, ao desenvolvimento de
expediente para arquivar sistemas de decisão automatizados113.
No tocante à divulgação de informações técnicas, é possível que tal recomendação sofra
resistência por parte da indústria tecnológica, especialmente em face do direito de propriedade
intelectual do programador, além de que o machine learning, em certo ponto, pode ser
desconhecido até para o próprio desenvolvedor.
Apenas a título exemplificativo, ressalta-se que algoritmos de avaliação de risco vêm
sendo utilizados nos EUA para medir a probabilidade de reincidência de um acusado114, em
110
(c) Desenvolvimento e implementação de um procedimento que possa ser usado pela cidade para determinar
se um sistema de decisão automatizado da agência afeta desproporcionalmente pessoas com base em idade, raça,
credo, cor, religião, origem nacional, gênero, deficiência, estado civil, parceria status, status de cuidador,
orientação sexual, alienação ou status de cidadania; (c) Development and implementation of a procedure that
may be used by the city to determine whether an agency automated decision system disproportionately impacts
persons based upon age, race, creed, color, religion, national origin, gender, disability, marital status, partnership
status, caregiver status, sexual orientation, alienage or citizenship status; Disponível em:
https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-
461253F9C6D0. Acesso em: 6 nov. 2019.
111
(d) Desenvolvimento e implementação de um procedimento para tratar de casos em que uma pessoa é
prejudicada por um sistema automatizado de decisão da agência, se for considerado que um sistema desse tipo
afeta desproporcionalmente pessoas com base em uma categoria descrita na alínea (c); (d) Development and
implementation of a procedure for addressing instances in which a person is harmed by an agency automated
decision system if any such system is found to disproportionately impact persons based upon a category
described in subparagraph (c); Disponível em:
https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-
461253F9C6D0. Acesso em: 6 nov. 2019.
112
(e) Desenvolvimento e implementação de um processo para disponibilizar publicamente as informações que,
para cada sistema de decisão automatizado de cada agência, permitirá ao público avaliar significativamente
como esse sistema funciona e é usado pela cidade, inclusive disponibilizando publicamente informações técnicas
sobre esse sistema, onde apropriado; (e) Development and implementation of a process for making information
publicly available that, for each agency automated decision system, will allow the public to meaningfully assess
how such system functions and is used by the city, including making technical information about such system
publicly available where appropriate; and. Disponível em:
https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-
461253F9C6D0. Acesso em: 6 nov. 2019.
113
(f) A viabilidade do desenvolvimento e implementação de um procedimento para arquivar sistemas de
decisão automatizados da agência, dados usados para determinar relações preditivas entre dados para esses
sistemas e dados de entrada para tais sistemas, desde que isso não precise incluir sistemas de decisão
automatizados da agência que cessaram, sendo usado pela cidade antes da data efetiva desta lei local. (f) The
feasibility of the development and implementation of a procedure for archiving agency automated decision
systems, data used to determine predictive relationships among data for such systems and input data for such
systems, provided that this need not include agency automated decision systems that ceased being used by the
city before the effective date of this local law. Disponível em:
https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-
461253F9C6D0. Acesso em: 6 nov. 2019.
114
PARIS INOVATION REVIEW. Predictive justice: when algorithms pervade the law. Disponível em:
http://parisinnovationreview.com/articles-en/predictive-justice-when-algorithms-pervade-the-law. Acesso em: 28
mar. 2020.
47
115
THE NEW YORK TIMES. Sent to prison by a software programs secret algorithms. Disponível em:
https://www.nytimes.com/2017/05/01/us/politics/sent-to-prison-by-a-software-programs-secret-
algorithms.html?_r=0. Acesso em: 28 mar. 2020.
116
NUNES, Dierle. MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e Direito Processual: Vieses
algorítmicos e os riscos de atribuição de função decisória às máquinas. Revista de Processo. Vol. 285, p. 421-
447, nov. 2018, p. 9.
117
” Specifically, Loomis asserts that the circuit court's use of a COMPAS risk assessment at sentencing violates
a defendant's right to due process for three reasons: (1) it violates a defendant's right to be sentenced based upon
accurate information, in part because the proprietary nature of COMPAS prevents him from assessing its
accuracy; (2) it violates a defendant's right to an individualized sentence; and (3) it improperly uses gendered
assessments in sentencing.” USA. Supreme Court of Wisconsin. Case nº.: 2015AP157-CR. State of Wisconsin,
Plaintiff-Respondent, v. Eric L. Loomis, Defendant-Appellant. OPINION FILED: July 13, 2016 SUBMITTED
ON BRIEFS: ORAL ARGUMENT: April 5, 2016. Disponível em:
https://www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690. Acesso em: 2 abr.
2020.
118
Loomis is correct that the risk scores do not explain how the COMPAS program uses information to
calculate the risk scores. However, Northpointe’s 2015 Practitioner's Guide to COMPAS explains that the risk
scores are based largely on static information (criminal history), with limited use of some dynamic variables (i.e.
criminal associates, substance abuse). The COMPAS report attached to Loomis's PSI contains a list of 21
48
questions and answers regarding these static factors such as: How many times has this person been returned to
custody while on parole? How many times has this person had a new charge/arrest while on probation? How
many times has this person been arrested before as an adult or juvenile (criminal arrest only)? Thus, to the extent
that Loomis's risk assessment is based upon his answers to questions and publicly available data about his
criminal history, Loomis had the opportunity to verify that the questions and answers listed on the COMPAS
report were accurate.” USA. Supreme Court of Wisconsin. Case nº 2015AP157-CR. State of Wisconsin,
Plaintiff-Respondent, v. Eric L. Loomis, Defendant-Appellant. OPINION FILED: July 13, 2016 SUBMITTED
ON BRIEFS: ORAL ARGUMENT: April 5, 2016. Disponível em:
https://www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690. Acesso em: 2 abr.
2020.
119
“Instead of resorting to conceptually new models of remedies and liability, I suggest enhancing an existing
liability rule, namely negligence, with supplementary rules that will set a predetermined acceptable level of care
applicable to designers and operators of AI-based robots (regardless of whether AI is embedded in the product
sold to the consumer or AI capabilities are delivered as a service).” RACHUM-TWAIG, Omri. Whose robot is it
anyway? Liability for artificial-intelligence-based robots. University of Illinois Law Review. 2020, p. 32.
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3339230. Acesso em: 13 mai. 2020.
120
PASQUALE, Frank. Toward a fourth law of robotics: preserving attribution, responsability and explainability
in an algorithmic society. Ohio State Law Journal. Vol. 78:5, p. 1.243-1.255, 2017, p. 1.244.
121
PASQUALE, Frank. Toward a fourth law of robotics: preserving attribution, responsability and explainability
in an algorithmic society. Ohio State Law Journal. Vol. 78:5, p. 1.243-1.255, 2017, p. 1.253.
49
desenvolvimento dessa tecnologia. Além disso, a Europa já conta com uma legislação
uniforme que vincula todos os países componentes da União Europeia no que tange ao
tratamento dos dados, com o GDPR.
Não se ignora que a abertura semântica e a relativização de quais seriam os conceitos
éticos aplicados no caso concreto podem vir a ensejar dificuldades, tornando abstratas as
prescrições estipuladas no documento. É possível que surjam tensões entre os próprios
interesses jurídicos envolvidos. No entanto, tais diretrizes podem ser incorporadas no
ordenamento jurídico pátrio, onde ainda há certo vácuo legislativo no tocante à regulação da
inteligência artificial, servindo como ponto de partida para a disciplina da questão,
especialmente quanto aos parâmetros principiológicos.
Sobre a governança de dados, Ana Frazão argumenta que a LGPD determina que o
instrumento de governança deve demonstrar o efetivo comprometimento com a observância
das normas de proteção de dados pessoais, explicitando quais dados podem ser coletados ou
tratados, em quais hipóteses e para que finalidades, impondo que se preveja pormenorizada e
concretamente os comportamentos que devem ser adotados para cada hipótese de tratamento e
ressaltando os procedimentos que devem ser realizados123.
122
SANTOS, Adriano Barreto Espíndola. Novos paradigmas para a função social da responsabilidade civil.
Revista Jurídica Luso-Brasileira. Ano 4, n. 3, 2018, p. 15.
123
FRAZÃO, Ana; OLIVA, Milena Donato; ABILIO, Vivianne da Silveira. Compliance de dados pessoais. In:
FRAZÃO, Ana; TEPEDINO, Gustavo; OLIVA, Milena Donato. A Lei Geral de Proteção de Dados Pessoais e
suas repercussões no Direito brasileiro. São Paulo: Thomson Reuters Brasil, 2019, p. 704.
50
124
VERONESE, Alexandre; SILVEIRA, Alessandra; LEMOS; Amanda Nunes Lopes Espiñeira. Inteligência
artificial, mercado único digital e a postulação de um direito as inferências justas e razoáveis: uma questão
jurídica entre a ética e a técnica. In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.). Inteligência artificial e
direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2019, p. 244.
125
PINHEIRO, Patricia Peck. Direito Digital. 6. ed. rev., atual. e ampl. São Paulo: Saraiva, 2016, p. 78.
51
126
BAUMAN, Zygmunt. Medo líquido. 1. ed. Rio de Janeiro: Zahar, 2012, p. 14.
127
BAUMAN, Zygmunt. Medo líquido. 1. ed. Rio de Janeiro: Zahar, 2012, p. 95.
128
MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da existência. 17. ed. São Paulo: Saraiva,
2014, p. 46.
52
O risco torna-se uma constante sempre presente no meio social, fazendo parte do
cotidiano e do desenvolvimento econômico e industrial e tornando premente a necessidade de
129
BAPTISTA, Patrícia. KELLER, Clara Iglesias. Por que, quando e como regular as novas tecnologias? Os
desafios trazidos pelas inovações disruptivas. Revista de Direito Administrativo. Rio de Janeiro, v. 273, p.
123-163, set./dez. 2016, p. 138.
130
BAPTISTA, Patrícia. KELLER, Clara Iglesias. Por que, quando e como regular as novas tecnologias? Os
desafios trazidos pelas inovações disruptivas. Revista de Direito Administrativo. Rio de Janeiro, v. 273, p.
123-163, set./dez. 2016, p. 142.
131
PORTO, Uly de Carvalho Rocha. A responsabilidade civil extracontratual por danos causados por robôs
autônomos. 2018. Dissertação (Mestrado em Ciências Jurídico-Civilistas), Faculdade de Direito da
Universidade de Coimbra, Coimbra, 128 p., p. 35.
132
CATALAN, Marcos. O desenvolvimento nanotecnológico e o dever de reparar os danos ignorados pelo
processo produtivo. Revista de Direito do Consumidor. São Paulo, n. 74, p. 113-147, abr./jun. 2010, p. 115.
53
É um princípio invocado, sobretudo, quando não há certeza científica acerca dos efeitos
adversos de determinada medida. É uma determinação do princípio 15 da Declaração do Rio
sobre Meio Ambiente e Desenvolvimento de 1992, documento normativo soft law de que o
Brasil é signatário:
Com o fim de proteger o meio ambiente, o princípio da precaução deverá ser
amplamente observado pelos Estados, de acordo com suas capacidades. Quando
houver ameaça de danos graves ou irreversíveis, a ausência de certeza científica
absoluta não será utilizada como razão para o adiamento de medidas
economicamente viáveis para prevenir a degradação ambiental135.
133
DORNELAS, Henrique Lopes. Sociedade de risco e o princípio da precaução: conceito, finalidade e a
questão de sua imperatividade. Revista UNIABEU. Nova Iguaçu, v. 4, n. 6, jan./abr. 2011, p. 4.
134
DORNELAS, Henrique Lopes. Sociedade de risco e o princípio da precaução: conceito, finalidade e a
questão de sua imperatividade. Revista UNIABEU. Nova Iguaçu, v. 4, n. 6, jan./abr. 2011, p. 6.
135
Disponível em:
http://www.meioambiente.pr.gov.br/arquivos/File/agenda21/Declaracao_Rio_Meio_Ambiente_Desenvolviment
o.pdf. Acesso em: 22 dez. 2019.
136
DORNELAS, Henrique Lopes. Sociedade de risco e o princípio da precaução: conceito, finalidade e a
questão de sua imperatividade. Revista UNIABEU. Nova Iguaçu, v. 4, n. 6, jan./abr. 2011, p. 14.
54
A interação por meio da internet das coisas é uma forma de construção do meio ambiente
artificial que usualmente se utiliza da inteligência artificial e que consolida a utilização do
espaço urbano como um elemento inerente à vida em sociedade. Ainda no que tange ao
princípio da precaução no contexto tecnológico, argumenta-se que este é
(...) sustentado por uma ética da responsabilidade, na qual o imperativo categórico
para a civilização tecnológica consiste na aquisição de conhecimento acerca dos
efeitos a longo prazo da tecnologia desenvolvida, com a aplicação da inversão do
ônus da prova e a imposição de elevados e diferenciados standards qualitativos para
o exercício da atividade potencialmente danosa139.
137
FIORILLO, Celso Antonio Pacheco. 30 anos de Direito Ambiental Constitucional: a consolidação do Direito
Ambiental Brasileiro em proveito da dignidade humana. Revista Eletrônica OAB/RJ. Edição Especial Direito
Ambiental. Disponível em: http://revistaeletronica.oabrj.org.br/wp-content/uploads/2017/11/FIORILLO-Celso.-
30-anos-de-direito-ambiental-constitucional-Celso-Fiorillo.pdf. Acesso em: 30 mar. 2020.
138
MAGRANI, Eduardo. A internet das coisas. Rio de Janeiro: FGV Editora, 2018, p. 11.
139
DORNELAS, Henrique Lopes. Sociedade de risco e o princípio da precaução: conceito, finalidade e a questão
de sua imperatividade. Revista UNIABEU. Nova Iguaçu, v. 4, n. 6, jan./abr. 2011, p. 113.
140
“Therefore, it is necessary to implement the Precautionary Principle: When an activity raises threats of harm
to human health or the environment, precautionary measures should be taken even if some cause and effect
relationships are not fully established scientifically.”
141
BIONI, Bruno Ricardo. LUCIANO, Maria. In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.).
Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil,
2019, p. 210.
142
“O recurso ao princípio da precaução pressupõe que se identificaram efeitos potencialmente perigosos
decorrentes de um fenómeno, de um produto ou de um processo e que a avaliação científica não permite a
determinação do risco com suficiente segurança.”
55
143
BIONI, Bruno Ricardo. LUCIANO, Maria. In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.).
Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil,
2019, p. 211.
144
BAUMAN, Zygmunt. Medo líquido. 1. ed. Rio de Janeiro: Zahar, 2012, p. 13.
145
PORTO, Uly de Carvalho Rocha. A responsabilidade civil extracontratual por danos causados por robôs
autônomos. 2018. Dissertação (Mestrado em Ciências Jurídico-Civilistas), Faculdade de Direito da
Universidade de Coimbra, Coimbra, 128 p., p. 43.
146
Art. 10. O fornecedor não poderá colocar no mercado de consumo produto ou serviço que sabe ou deveria
saber apresentar alto grau de nocividade ou periculosidade à saúde ou segurança.
56
informação permite que cada um, em última análise, tome para si parte do
gerenciamento dos riscos que lhe assombram. A informação é indispensável para o
exercício da escolha, da autodeterminação, sempre que há espaço para tanto147.
147
HARTMANN, Ivar Alberto Martins. O princípio da precaução e sua aplicação no direito do consumidor:
dever de informação. Revista Direito e Justiça. V. 38, n. 2, p; 156-182, jul./dez. 2012, p. 8.
148
HARTMANN, Ivar Alberto Martins. O princípio da precaução e sua aplicação no direito do consumidor:
dever de informação. Revista Direito e Justiça. V. 38, n. 2, p; 156-182, jul./dez. 2012, p. 13.
149
HAMMERSCHMIDT, Denise. O risco na sociedade contemporânea e o princípio da precaução no Direito
Ambiental. Revista Sequência. Nº 45, p. 97-122, dez. 2002, p. 111.
150
AQUINO JÚNIOR, Geraldo Frazão de. Responsabilidade civil dos provedores de internet. In: EHRHARDT
JÚNIOR, Marcos. LÔBO, Fabíola Albuquerque. (Coord.). Privacidade e sua compreensão no Direito
Brasileiro. Belo Horizonte: Fórum, 2019, p. 107.
57
Alicerçada na teoria do valor do desestímulo, a função preventiva tem por objetivo evitar
as condutas lesantes e prevenir futuros danos. Começa-se a tratar acerca da função social na
responsabilidade civil, que se consubstancia no caráter protetivo e preventivo que adverte o
lesante de seu dever de se abster de novas investidas153.
Nelson Rosenvald sustenta que os mecanismos restitutórios transcendem uma função
compensatória própria da responsabilidade civil clássica sem, ao mesmo tempo, converterem-
se em sanções punitivas, de modo que a valorização da função preventiva da responsabilidade
civil pode materializar-se tanto pela aplicação de sanções punitivas civis quanto por
pretensões restitutórias, como regra de incentivo à reação aos ilícitos, superando o plano
intersubjetivo da neutralização de danos para valorizar a função de desestímulo de
comportamentos nocivos a toda a sociedade e a remoção de ganhos ilícitos154.
Trata-se de consagrar a tutela dos direitos de personalidade, compreendidos como
aqueles direitos imprescindíveis ao pleno e saudável desenvolvimento das virtudes
151
SANTOS, Adriano Barreto Espíndola. O instituto da responsabilidade civil, a função punitiva e a teoria do
valor do desestímulo no cenário luso-brasileiro. Revista jurídica luso-brasileira. Nº 2, Ano 4, 2018, p. 589.
152
EHRHARDT JÚNIOR, Marcos. Apontamentos para uma Teoria Geral da Responsabilidade Civil no Brasil.
In: Nelson Rosenvald; Marcelo Milagres. (Org.). Responsabilidade Civil: novas tendências. 2. ed. Indaiatuba,
SP: Foco, 2018, v. 1, p. 45-72.
153
SANTOS, Adriano Barreto Espíndola. Novos paradigmas para a função social da responsabilidade civil.
Revista jurídica luso-brasileira. Nº 3, Ano 4, 2018, p. 25.
154
ROSENVALD, Nelson. Responsabilidade civil: compensar, punir e restituir. In: SENA, Michel Canuto de.
Responsabilidade Civil: Aspectos Gerais e Temas Contemporâneos. 1. ed. Campo Grande: Contemplar,
2020, p. 136.
58
biopsíquicas do ser humano155, com fulcro no dever normativo de solidariedade social que
passa a disciplinar as relações com o advento da Constituição Federal de 1988.
Abandona-se o paradigma exclusivo da culpa, que, como um produto do século XVII,
designava a ideia de censura moral do dano, enfatizada na reprovação da consciência156,
dando espaço à reparação com fulcro no risco da atividade, além de situações de presunção de
culpa. Essa tendência é percebida cada vez mais com o intuito de abarcar uma maior gama de
fenômenos.
De molde a fazer com que considerável parcela dos danos não reste irresarcida, os
ordenamentos jurídicos contemporâneos têm procurado alargar o campo do dever de
indenizar, englobando situações antes não previstas, principalmente se se toma em
conta a crescente complexidade da sociedade atual e as inovações tecnológicas
levadas a efeito no contexto atual do mundo globalizado e do desenvolvimento dos
meios de comunicação157.
155
JABUR, Gilberto Haddad. Direito Privado, Direito Constitucional e Dignidade Humana. Revista jurídica
luso-brasileira. Nº 5, Ano 4, 2018, p. 5.
156
PEREIRA, Alexandre Pimenta Batista. Os confins da responsabilidade objetiva nos horizontes da sociologia
do risco. Revista de Informação Legislativa. v. 43, n. 170, p. 181-189, abr./jun. 2006, p. 4.
157
AQUINO JÚNIOR, Geraldo Frazão de. Responsabilidade civil dos provedores de internet. In: EHRHARDT
JÚNIOR, Marcos. LÔBO, Fabíola Albuquerque. (Coord.). Privacidade e sua compreensão no Direito
Brasileiro. Belo Horizonte: Fórum, 2019, p. 108.
158
Art. 186. Aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar
dano a outrem, ainda que exclusivamente moral, comete ato ilícito.
159
Art. 927. Aquele que, por ato ilícito (arts. 186 e 187), causar dano a outrem, fica obrigado a repará-lo.
Parágrafo único. Haverá obrigação de reparar o dano, independentemente de culpa, nos casos especificados em
lei, ou quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os
direitos de outrem.
160
CERKA, Paulius; GRIGIENE, Jurgita; SIRBIKYTÈ, Gintarè. Liability for damages caused by artificial
intelligence. Computer Law and Security Review. United Kingdom, v. 31, p. 376-389, 2015, p. 386; e
TEPEDINO, Gustavo. SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de
responsabilidade civil. Revista Brasileira de Direito Civil. Belo Horizonte, V. 21, p. 61-86, jul./set. 2019, p. 83.
59
161
MENEZES, Joyceane Bezerra de; COELHO, José Martônio Alves; BUGARIM, Maria Clara Cavalcante. A
expansão da responsabilidade civil na sociedade de riscos. Scientia Iuris: Londrina, v. 15, n. 1, p. 29-50, jun.
2011, p. 2.
162
CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 9. ed. São Paulo: Atlas, 2010.
163
CATALAN, Marcos. Estado da arte, riscos do desenvolvimento e proteção do consumidor frente às incertezas
contidas no porvir. In: MIRAGEM, Bruno. MARQUES, Cláudia Lima. OLIVEIRA, Amanda Flávio de. 25 anos
de Código de Defesa do Consumidor: trajetória e perspectivas. São Paulo: Revista dos Tribunais, 2016, p.
196.
164
TEPEDINO, Gustavo. SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de
responsabilidade civil. Revista Brasileira de Direito Civil. Belo Horizonte, V. 21, p. 61-86, jul./set. 2019, p. 78.
60
Em que pese a citação se refira aos robôs autônomos, o raciocínio também é aplicável à
inteligência artificial de um modo geral, já que essa tecnologia também tem o potencial de
causar danos que muitas vezes não são esperados pelo desenvolvedor. Na Europa, tal fator é
considerado como excludente de responsabilização civil, nos termos da Diretiva de
Comunidade Europeia (Directiva 85/374/CEE), cujo artigo 7º, “e”, dispõe: “O produtor não é
responsável nos termos da presente directiva se provar: (...) e) Que o estado dos
conhecimentos científicos e técnicos no momento da colocação em circulação do produto não
lhe permitiu detectar a existência do defeito”166. Impende verificar, nesse contexto, se os atos
de inteligência artificial se enquadram na concepção de risco de desenvolvimento ou se
originariam meros danos oriundos do fato da coisa.
165
PORTO, Uly de Carvalho Rocha. A responsabilidade civil extracontratual por danos causados por robôs
autônomos. 2018. Dissertação (Mestrado em Ciências Jurídico-Civilistas), Faculdade de Direito da
Universidade de Coimbra, Coimbra, 128 p, p. 54.
166
UNIÃO EUROPEIA, Diretivas da Comunidade Europeia. Disponível em: https://eur-lex.europa.eu/legal-
content/PT/TXT/?uri=celex%3A31985L0374. Acesso em: 17 set. 2018.
167
RECURSO ESPECIAL. (...) DEVER DE INFORMAR QUALIFICADO DO FABRICANTE. VIOLAÇÃO.
DEFEITO DO PRODUTO. RISCO DO DESENVOLVIMENTO.
DEFEITO DE CONCEPÇÃO. FORTUITO INTERNO. RESPONSABILIDADE OBJETIVA DO
FABRICANTE CONFIGURADA. CULPA CONCORRENTE DO CONSUMIDOR AFASTADA.
COMPROVAÇÃO DOS DANOS EMERGENTES E DOS LUCROS CESSANTES. NECESSIDADE DE
LIQUIDAÇÃO DA SENTENÇA. REEXAME DE FATOS E PROVAS. SÚMULA 7/STJ.
DANO MORAL. MAJORAÇÃO DA VERBA FIXADA. VERBA ALIMENTAR RECEBIDA EM
ANTECIPAÇÃO DE TUTELA. NATUREZA IRREPETÍVEL. COMPENSAÇÃO INVIÁVEL.
INCIDENTE DE FALSIDADE JULGADO IMPROCEDENTE. ÔNUS DA SUCUMBÊNCIA QUE RECAI
SOBRE A PARTE VENCIDA. JULGAMENTO: CPC/15. 6. O ordenamento jurídico não exige que os
medicamentos sejam fabricados com garantia de segurança absoluta, até porque se trata de uma atividade de
risco permitido, mas exige que garantam a segurança legitimamente esperável, tolerando os riscos considerados
normais e previsíveis em decorrência de sua natureza e fruição, desde que o consumidor receba as informações
necessárias e adequadas a seu respeito (art. 8º do CDC).
7. O fato de o uso de um medicamento causar efeitos colaterais ou reações adversas, por si só, não configura
defeito do produto se o usuário foi prévia e devidamente informado e advertido sobre tais riscos inerentes, de
modo a poder decidir, de forma livre, refletida e consciente, sobre o tratamento que lhe é prescrito, além de ter a
possibilidade de mitigar eventuais danos que venham a ocorrer em função dele.
8. O risco do desenvolvimento, entendido como aquele que não podia ser conhecido ou evitado no momento em
que o medicamento foi colocado em circulação, constitui defeito existente desde o momento da concepção do
produto, embora não perceptível a priori, caracterizando, pois, hipótese de fortuito interno.
9. Embora a bula seja o mais importante documento sanitário de veiculação de informações técnico-científicas e
61
orientadoras sobre um medicamento, não pode o fabricante se aproveitar da tramitação administrativa do pedido
de atualização junto a Anvisa para se eximir do dever de dar, prontamente, amplo conhecimento ao público -
pacientes e profissionais da área de saúde -, por qualquer outro meio de comunicação, dos riscos inerentes ao uso
do remédio que fez circular no mercado de consumo.
10. Hipótese em que o desconhecimento quanto à possibilidade de desenvolvimento do jogo patológico como
reação adversa ao uso do medicamento SIFROL subtraiu da paciente a capacidade de relacionar, de imediato, o
transtorno mental e comportamental de controle do impulso ao tratamento médico ao qual estava sendo
submetida, sobretudo por se tratar de um efeito absolutamente anormal e imprevisível para a consumidora leiga e
desinformada, especialmente para a consumidora portadora de doença de Parkinson, como na espécie. (...) (REsp
1774372/RS, Rel. Ministra NANCY ANDRIGHI, TERCEIRA TURMA, julgado em 5/5/2020, DJe 18/5/2020).
168
MENEZES, Joyceane Bezerra de. CARDOSO, Roberta Teles. A figura do dano injusto na doutrina e a sua
aplicação pelos Tribunais Superiores do Brasil. In: SENA, Michel Canuto de. Responsabilidade Civil:
Aspectos Gerais e Temas Contemporâneos. 1. ed. Campo Grande: Contemplar, 2020, p. 199.
169
MENEZES, Joyceane Bezerra de; COELHO, José Martônio Alves; BUGARIM, Maria Clara Cavalcante. A
expansão da responsabilidade civil na sociedade de riscos. Scientia Iuris: Londrina, v. 15, n. 1, p. 29-50, jun.
2011, p. 41.
170
MENEZES, Joyceane Bezerra de; COELHO, José Martônio Alves; BUGARIM, Maria Clara Cavalcante. A
expansão da responsabilidade civil na sociedade de riscos. Scientia Iuris: Londrina, v. 15, n. 1, p. 29-50, jun.
2011, p. 42.
62
caracterizado pelo erro de projeto ou pela escolha equivocada dos materiais a serem
utilizados na fabricação do produto, de tal maneira que a insegurança está
diretamente ligada, como o próprio termo explicita, à concepção ou idealização.
Seria esse o caso da tomada de decisão da AI ou estar-se-ia tratando apenas de um
desdobramento independente e autônomo a partir da nova realidade tecnológica?171
Acompanham esse posicionamento, entre outros, autores como Paulo de Tarso Vieira
Sanseverino174, Marco Aurélio Lopes Ferreira da Silva175, Carla Marshall176, Eduardo Arruda
Alvim177, Manoel Martins Júnior178 e Marcelo Junqueira Calixto179. A defesa lastreada no
171
MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael. Novas perspectivas sobre ética e responsabilidade
de inteligência artificial. In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.). Inteligência artificial e direito:
ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2019, p. 134.
172
TEPEDINO, Gustavo; SILVA, Rodrigo da Guia. Inteligência artificial e elementos da responsabilidade civil.
In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.). Inteligência artificial e direito: ética, regulação e
responsabilidade. São Paulo: Thomson Reuters Brasil, 2019, p. 306.
173
CATALAN, Marcos. Estado da arte, riscos do desenvolvimento e proteção do consumidor frente às incertezas
contidas no porvir. In: MIRAGEM, Bruno. MARQUES, Cláudia Lima. OLIVEIRA, Amanda Flávio de. 25 anos
de Código de Defesa do Consumidor: trajetória e perspectivas. São Paulo: Revista dos Tribunais, 2016, p.
195.
174
SANSEVERINO, Paulo de Tarso Vieira. Responsabilidade civil por acidentes de consumo. In: LOPEZ,
Teresa Ancona. AGUIAR JÚNIOR, Ruy Rosado (coords.). p. 332-338.
175
SILVA, Marco Aurélio Lopes Ferreira de. Responsabilidade pelo risco do desenvolvimento. Revista da
Faculdade de Direito de Campos. nº 8, Campos dos Goytacazes, jan./jun. 2006, p. 379-397.
176
MARSHALL, Carla Izolda Fiúza Costa. Responsabilidade civil do fabricante por produto defeituoso na
União Europeia e no Brasil. Revista de Administração Pública, Rio de Janeiro, v. 32, n. 3, p. 249 a 255, mar.
1998. ISSN 1982-3134. Disponível em: <http://bibliotecadigital.fgv.br/ojs/index.php/rap/article/view/7744>.
Acesso em: 1º jan. 2020.
177
ALVIM, Eduardo Arruda. Responsabilidade civil pelo fato do produto no Código de Defesa do Consumidor.
Revista de Direito do Consumidor 15/148. São Paulo: Editora Revista dos Tribunais, jul./set. 1995, p. 132/151.
63
Essa noção é corroborada pelo parágrafo terceiro do mesmo dispositivo legal. Este
dispõe que o fornecedor não será responsabilizado se provar que o defeito inexiste. Paulo
Lôbo considera o risco do desenvolvimento como exoneratório da responsabilidade do
fornecedor, tendo em vista que todo produto lançado no mercado, em conformidade com os
dados da ciência e tecnologia atualmente irrefutáveis, pode ser considerado adequado e
seguro180.
178
MARTINS JÚNIOR, Manoel. A responsabilidade civil do fornecedor pelo fato do produto no Código de
Defesa do Consumidor. Revista IMES de Direito 2/146. N. 4, São Caetano do Sul, jan./jun. 2002.
179
CALIXTO, Marcelo Junqueira. O art. 931 do Código Civil e os riscos do desenvolvimento. Revista
Trimestral de Direito Civil. Rio de Janeiro: Renovar, jan./mar. 2005.
180
LÔBO, Paulo Luiz Netto. A informação como direito fundamental do consumidor. Revista de Direito do
Consumidor. São Paulo: Revista dos Tribunais, n. 37, p. 59-76, 2001, p. 69.
181
CATALAN, Marcos. O desenvolvimento nanotecnológico e o dever de reparar os danos ignorados pelo
processo produtivo. Revista de Direito do Consumidor. São Paulo, n. 74, p. 113-147, abr./jun. 2010, p. 128.
64
182
COCHRANE BRASIL. Ainda não se conhecem os efeitos dos medicamentos para esclerose múltipla no longo
prazo. Disponível em: https://brazil.cochrane.org/news/ainda-n%C3%A3o-se-conhecem-os-efeitos-dos-
medicamentos-para-esclerose-m%C3%BAltipla-no-longo-prazo. Acesso em: 31 dez. 2019.
183
DR. BARAKAT. Transgênicos: como podem impactar a saúde e causar danos ao meio ambiente.
Disponível em: https://www.brasildefato.com.br/node/12318/. Acesso em: 31 dez. 2019.
184
TERRA. Papada, insônia e acne: veja danos que o uso de celular pode causar. Disponível em:
https://www.terra.com.br/vida-e-estilo/saude/bem-estar/papada-insonia-e-acne-veja-danos-que-o-uso-de-celular-
pode-causar,518ab3680b600410VgnVCM10000098cceb0aRCRD.html Acesso em: 31 dez. 2019.
185
Ação direta de inconstitucionalidade. Lei nº 12.684/2007 do Estado de São Paulo. Proibição do uso de
produtos, materiais ou artefatos que contenham quaisquer tipos de amianto ou asbesto. Produção e consumo,
proteção do meio ambiente e proteção e defesa da saúde. Competência legislativa concorrente. Impossibilidade
de a legislação estadual disciplinar matéria de forma contrária à lei geral federal. Lei federal nº 9.055/1995.
Autorização de extração, industrialização, utilização e comercialização do amianto da variedade crisotila.
Processo de inconstitucionalização. Alteração nas relações fáticas subjacentes à norma jurídica. Natureza
cancerígena do amianto crisotila e inviabilidade de seu uso de forma efetivamente segura. Existência de
matérias-primas alternativas. Ausência de revisão da legislação federal, como determina a Convenção nº 162 da
OIT. Inconstitucionalidade superveniente da Lei Federal nº 9.055/1995. Competência legislativa plena dos
estados. Constitucionalidade da Lei estadual nº 12.684/2007. Improcedência da ação (...). 4. No entanto, o art. 2º
da Lei Federal nº 9.055/1995 passou por um processo de inconstitucionalização, em razão da alteração nas
relações fáticas subjacentes à norma jurídica, e, no momento atual, não mais se compatibiliza com a Constituição
de 1988. Se, antes, tinha-se notícia dos possíveis riscos à saúde e ao meio ambiente ocasionados pela utilização
da crisotila, falando-se, na época da edição da lei, na possibilidade do uso controlado dessa substância,
atualmente, o que se observa é um consenso em torno da natureza altamente cancerígena do mineral e da
inviabilidade de seu uso de forma efetivamente segura, sendo esse o entendimento oficial dos órgãos nacionais e
internacionais que detêm autoridade no tema da saúde em geral e da saúde do trabalhador. 5. A Convenção nº
162 da Organização Internacional do Trabalho, de junho de 1986, prevê, dentre seus princípios gerais, a
necessidade de revisão da legislação nacional sempre que o desenvolvimento técnico e o progresso no
conhecimento científico o requeiram (art. 3º, § 2). A convenção também determina a substituição do amianto por
material menos danoso, ou mesmo seu efetivo banimento, sempre que isso se revelar necessário e for
tecnicamente viável (art. 10). Portanto, o Brasil assumiu o compromisso internacional de revisar sua legislação e
geral federal, desvirtuando o mínimo de unidade normativa almejado pela Constituição Federal. (...) 6. Quando
da edição da lei federal, o país não dispunha de produto qualificado para substituir o amianto crisotila. No
entanto, atualmente, existem materiais alternativos. Com o advento de materiais recomendados pelo Ministério
da Saúde e pela Anvisa e em atendimento aos compromissos internacionais de revisão periódica da legislação, a
Lei Federal nº 9.055/1995 – que, desde sua edição, não sofreu nenhuma atualização -, deveria ter sido revista
65
para banir progressivamente a utilização do asbesto na variedade crisotila, ajustando-se ao estágio atual do
consenso em torno dos riscos envolvidos na utilização desse mineral. 7. (i) O consenso dos órgãos oficiais de
saúde geral e de saúde do trabalhador em torno da natureza altamente cancerígena do amianto crisotila, (ii) a
existência de materiais alternativos à fibra de amianto e (iii) a ausência de revisão da legislação federal revelam a
inconstitucionalidade superveniente (sob a óptica material) da Lei Federal nº 9.055/1995, por ofensa ao direito à
saúde (art. 6º e 196, CF/88), ao dever estatal de redução dos riscos inerentes ao trabalho por meio de normas de
saúde, higiene e segurança (art. 7º, inciso XXII, CF/88), e à proteção do meio ambiente (art. 225, CF/88).
186
CATALAN, Marcos. Estado da arte, riscos do desenvolvimento e proteção do consumidor frente às incertezas
contidas no porvir. In: MIRAGEM, Bruno. MARQUES, Cláudia Lima. OLIVEIRA, Amanda Flávio de. 25 anos
de Código de Defesa do Consumidor: trajetória e perspectivas. São Paulo: Revista dos Tribunais, 2016, p.
194.
187
MIT TECHNOLOGY REVIEW. Here’s how social media can combat the coronavirus ‘infodemic’.
Disponível em: https://www.technologyreview.com/s/615368/facebook-twitter-social-media-infodemic-
misinformation/. Acesso em: 1º abr. 2020.
188
MENEZES, Joyceane Bezerra de; COELHO, José Martônio Alves; BUGARIM, Maria Clara Cavalcante. A
expansão da responsabilidade civil na sociedade de riscos. Scientia Iuris: Londrina, v. 15, n. 1, p. 29-50, jun.
2011, p. 43.
66
189
WIRED. AI epidemiologist Wuhan public health warnings. Disponível em: Disponível em:
https://www.wired.com/story/ai-epidemiologist-wuhan-public-health-warnings/. Acesso em: 22 mar. 2020.
190
WIRED. How AI is tracking coronavirus outbreak. Disponível em: https://www.wired.com/story/how-ai-
tracking-coronavirus-outbreak/. Acesso em: 22 mar. 2020.
191
GLOBAL NEWS. ‘Yes, this drone is speaking to you’: How China is reportedly enforcing coronavirus
rules. Disponível em: https://globalnews.ca/news/6535353/china-coronavirus-drones-quarantine/. Acesso em: 22
mar. 2020.
192
REUTERS. Coronavirus brings China's surveillance state out of the shadows. Disponível em:
https://www.reuters.com/article/us-china-health-surveillance/coronavirus-brings-chinas-surveillance-state-out-
of-the-shadows-idUSKBN2011HO. Acesso em: 22 mar. 2020.
193
SOUTH CHINA MORNING POST. Coronavirus: AI firms deploy fever detection systems in Beijing to
fight outbreak. Disponível em: https://www.scmp.com/tech/policy/article/3049215/ai-firms-deploy-fever-
detection-systems-beijing-help-fight-coronavirus. Acesso em: 22 mar. 2020.
194
THE NEW YORK TIMES. In Coronavirus Fight, China Gives Citizens a Color Code, With Red Flags.
Disponível em: https://www.nytimes.com/2020/03/01/business/china-coronavirus-surveillance.html. Acesso em:
22 mar. 2020.
195
Neste ponto, interessante destacar matéria publicada no jornal El País, com o seguinte título “O coronavírus
de hoje e o mundo de amanhã, segundo o filósofo Byung-Chul Han”, que compara o modo ocidental de se
comportar perante as mais diversas formas de vigilância digital com a perspectiva oriental: “(...) A consciência
crítica diante da vigilância digital é praticamente inexistente na Ásia. Já quase não se fala de proteção de dados,
67
incluindo Estados liberais como o Japão e a Coreia. Ninguém se irrita pelo frenesi das autoridades em recopilar
dados. Enquanto isso a China introduziu um sistema de crédito social inimaginável aos europeus, que permite
uma valorização e avaliação exaustiva das pessoas. Cada um deve ser avaliado em consequência de sua conduta
social. Na China não há nenhum momento da vida cotidiana que não esteja submetido à observação. Cada
clique, cada compra, cada contato, cada atividade nas redes sociais são controlados. Quem atravessa no sinal
vermelho, quem tem contato com críticos do regime e quem coloca comentários críticos nas redes sociais perde
pontos. A vida, então, pode chegar a se tornar muito perigosa. Pelo contrário, quem compra pela Internet
alimentos saudáveis e lê jornais que apoiam o regime ganha pontos. Quem tem pontuação suficiente obtém um
visto de viagem e créditos baratos. Pelo contrário, quem cai abaixo de um determinado número de pontos pode
perder seu trabalho. Na China essa vigilância social é possível porque ocorre uma irrestrita troca de dados entre
os fornecedores da Internet e de telefonia celular e as autoridades. Praticamente não existe a proteção de dados.
No vocabulário dos chineses não há o termo “esfera privada”. Disponível em
https://brasil.elpais.com/ideas/2020-03-22/o-coronavirus-de-hojeeo-mundo-de-amanha-segundoofilosofo-byung-
chul-han.html?rel=mas. Acesso em: 24 mar. 2020.
196
ESTADÃO. Governo usará inteligência artificial para fazer consulta a distância e mapear riscos do
coronavírus. Disponível em: https://saude.estadao.com.br/noticias/geral,governo-usara-inteligencia-artificial-
para-fazer-consulta-a-distancia-e-mapear-riscos-do-coronavirus,70003255622. Acesso em: 1º abr. 2020.
68
responsabilidade objetiva. Com efeito, todas são atividades que geram “risco para os
direitos de outrem”, como prevê o dispositivo legal197.
Em contraponto, Gustavo Tepedino e Rodrigo da Guia Silva asseveram que não parece
possível a “invocação indiscriminada e irrefletida da noção de atividade de risco. Deve-se,
com efeito, lançar mão dos critérios desenvolvidos pela doutrina para a elucidação do que
vem a ser atividade de risco para fins de incidência da correlata cláusula geral de
responsabilidade objetiva198”.
A relevância da análise do risco surge porque, havendo vácuo normativo na objetivação
da responsabilidade por danos causados por atos de inteligência artificial, torna-se imperioso
recorrer à cláusula geral do parágrafo único do art. 927 do Código Civil. Seu enquadramento
como responsabilidade objetiva ocorrerá quando for verificado que a atividade acarreta risco
para os direitos de outrem.
Para a caracterização da teoria do risco, o desafio surge a fim de verificar se a atividade
da inteligência artificial, incluindo aquelas com menor grau de autonomia e maior utilização
no cotidiano, pode ser considerada intrinsecamente perigosa ou extraordinariamente arriscada,
apta a atrair a incidência da teoria, especialmente sabendo que pode haver diferenciação entre
prejuízos oriundos da atividade normal, autônoma e regular do objeto ou prejuízos oriundos
de instruções passadas pelos usuários.
O art. 927, parágrafo único, do Código Civil atrai a responsabilidade objetiva e não
exige que a atividade seja perigosa, mas, tão somente, arriscada:
Deve ficar claro que risco é o conceito mínimo. Obviamente, atividades perigosas,
mais que arriscadas, estão incluídas no dispositivo estudado aqui. Se o menor ‒ o
risco ‒ gera responsabilidade estrita, o maior ‒ o perigo ‒ também o faz. Esta não
seria a conclusão se o Código Civil Brasileiro adotasse a mesma expressão ‒ perigo
‒ que encontramos nos códigos italiano e português. (Tradução livre)199.
197
MORAES, Maria Celina Bodin de. A constitucionalização do direito civil e seus efeitos sobre a
responsabilidade civil. Direito, Estado e Sociedade. Rio de Janeiro, n. 29, p. 233-258, 2006.
198
TEPEDINO, Gustavo; SILVA, Rodrigo da Guia. Inteligência artificial e elementos da responsabilidade civil.
In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.). Inteligência artificial e direito: ética, regulação e
responsabilidade. São Paulo: Thomson Reuters Brasil, 2019, p. 319.
199
Debe quedar claro que el riesgo es el concepto mínimo. Evidentemente, las actividades peligrosas, más que
las arriesgadas, están comprendidas por el dispositivo aquí estudiado. Si lo menos – el riesgo – genera
responsabilidad objetiva, lo más – el peligro – también lo hace. TARTUCE, Flavio. La cláusula general de
responsabilidad objetiva en los diez años del nuevo código civil brasileño In: MORE, César E. Moreno.
Estudios sobre la responsabilidad civil. Lima: Ediciones legales, 2015, p. 136.
69
200
“Therefore, it is clear that a greater source of danger is defined as a specific object of the physical world that
has specific properties. That is precisely what A.I is, i.e. a specific object characterized by specific properties
inherent only to it. Since A.I is able to draw individual conclusions from the gathered, structured, and
generalized information as well as to respond accordingly, it should be accepted that its activies are hazardous.”
CERKA, Paulius; GRIGIENE, Jurgita; SIRBIKYTE, Gintare. Liability for damages caused by artificial
intelligence. Computer Law and Security Review. United Kingdom, v. 31, p. 11.
70
O problema perpassa, nesse ponto, pela definição de quais os riscos assumidos pelo
exercício da atividade empresarial, perspectiva ainda mais problemática num contexto de
sociedade digital, onde muitos dos efeitos e potencialidades das novas tecnologias são
desconhecidos. Outro ponto crítico é o mito da neutralidade do algoritmo, pois os sistemas
inteligentes atendem aos critérios aplicados pelo seu programador. O sistema, em regra,
atende aos seus valores e convicções, o que se afasta da pretensão de imparcialidade201.
Trata-se de temática que gera inegáveis conflitos entre os interesses envolvidos e exige
do intérprete esforço argumentativo e cautela na apreciação de casos, tendo em vista o choque
entre o dever de promoção ao desenvolvimento tecnológico e o dever de tutela das vítimas.
Observa Marcos Catalan:
Não se pretende negar que o risco de diminuição na velocidade da evolução em
pesquisa e consequente utilização das novas tecnologias seja algo real, nem que a
tarefa de internalizar os custos de riscos desconhecidos seja algo simples, mas
destacar que, será exatamente em razão desse comportamento preventivo que o
produtor ampliará seu mercado, mormente em um momento em que o consumo
consciente e a responsabilidade social são valores cada vez mais exigidos pela ética
da contemporaneidade; até porque, se a manutenção das garantias do modo de
produção capitalista é essencial à sociedade, por outro lado, o processo evolutivo
deve ser conduzido por uma racionalidade social que busca a eliminação de todo
dano injusto202.
Não se defende uma responsabilização integral e ilimitada dos fornecedores, o que, sem
dúvida, lhes acarretaria um estrangulamento na atividade inovadora. Nem toda atividade
regular e autônoma da inteligência artificial enseja necessariamente o dever de indenização,
mormente tendo em vista a necessidade de verificação de um adequado nexo de causalidade.
Perspectiva relevante é a de responsabilização proativa, suscitada por Maria Celina
Bodin de Moraes em comentário ao regime de responsabilidade exposto na Lei Geral de
201
OLIVEIRA, Samuel Rodrigues de; COSTA, Ramon Silva. Pode a máquina julgar? Considerações sobre o uso
de inteligência artificial no processo de decisão judicial. Revista de argumentação e hermenêutica jurídica.
Porto Alegre, v. 4, n. 2, p. 21-39, jul./dez. 2018, p. 15.
202
CATALAN, Marcos. O desenvolvimento nanotecnológico e o dever de reparar os danos ignorados pelo
processo produtivo. Revista de Direito do Consumidor. São Paulo, n. 74, p. 113-147, abr./jun. 2010, p. 142.
71
Trata-se da conjugação de esforços para que danos injustos, isto é, desarrazoados, não
sejam suportados por vítimas que nem sequer participaram do processo produtivo do artefato
tecnológico ou usufruem dos lucros auferidos. A tutela das vítimas de danos injustos deve ser
sempre pautada pela axiologia constitucional e pelo ordenamento jurídico de forma unitária e
sistemática, em toda a sua complexidade. Eleva-se, portanto, a necessidade de equalizar a
livre-iniciativa com a solidariedade social e a necessidade de proteção da pessoa humana,
conformando as balizas que delimitam o Estado Democrático de Direito e evitando a
proliferação de danos injustos e distorções no processo produtivo massificado.
Nessa perspectiva de tutela do vulnerável, assumem destaque os deveres do fornecedor,
enquanto ente que possui maior capacidade técnica e econômica de operacionalizar a relação.
O dever de cooperação e a boa-fé objetiva caracterizam a necessidade de informação,
enquanto direito básico do consumidor que não pode ser negligenciado, ainda quando não se
sabem as efetivas fronteiras da inteligência artificial.
203
MORAES, Maria Celina Bodin de. LGPD: um novo regime de responsabilização dito “proativo”. Civilística.
A. 8, n. 3, 2019. Disponível em: http://civilistica.com/lgpd-um-novo-regime-de-responsabilizacao-civil-dito-
proativo/. Acesso em: 28 mar. 2020.
204
Art. 170. A ordem econômica, fundada na valorização do trabalho humano e na livre iniciativa, tem por fim
assegurar a todos existência digna, conforme os ditames da justiça social, observados os seguintes princípios: (...)
V - defesa do consumidor; (...).
205
Art. 5º Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e aos
estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
72
XIV, CF/88206). O direito à informação, consagrado como direito básico no art. 6º do Código
de Defesa do Consumidor207, por sua vez, se alicerça nos deveres de cooperação e boa-fé
objetiva, possibilitando ao consumidor uma opção esclarecida e autodeterminada na aquisição
de produtos ou serviços, tendo em vista a massificação do mercado contemporâneo.
Paulo Lôbo sustenta que o direito à informação do consumidor é um direito
fundamental208. Segundo Leonardo Garcia:
Para que o fornecedor aja com lealdade e de modo a não frustrar as legítimas
expectativas do consumidor, deve o fornecedor dar a máxima informação possível
sobre os dados e riscos do produto ou serviço (dever anexo de informação). O
princípio da informação acarreta o dever para o fornecedor de esclarecer ao
consumidor sobre todos os elementos do produto ou serviço, assim como, também,
de esclarecer sobre o conteúdo do contrato que será estipulado, sob pena de ser
passível de responder pela falha na informação209.
propriedade, nos termos seguintes: (...) XXXII - o Estado promoverá, na forma da lei, a defesa do consumidor;
(...).
206
XIV - é assegurado a todos o acesso à informação e resguardado o sigilo da fonte, quando necessário ao
exercício profissional.
207
Art. 6º São direitos básicos do consumidor: (...) III - a informação adequada e clara sobre os diferentes
produtos e serviços, com especificação correta de quantidade, características, composição, qualidade, tributos
incidentes e preço, bem como sobre os riscos que apresentem; (Redação dada pela Lei nº 12.741, de 2012).
208
LÔBO, Paulo Luiz Netto. A informação como direito fundamental do consumidor. Revista de Direito do
Consumidor. São Paulo: Revista dos Tribunais, n. 37, p. 59-76, 2001.
209
GARCIA, Leonardo de Medeiros. O princípio da informação na pós-modernidade: direito fundamental do
consumidor para o equilíbrio nas relações de consumo. Revista Direito UNIFACS. N. 176, Salvador, 2015, p.
6.
210
Art. 4º A Política Nacional das Relações de Consumo tem por objetivo o atendimento das necessidades dos
consumidores, o respeito à sua dignidade, saúde e segurança, a proteção de seus interesses econômicos, a
melhoria da sua qualidade de vida, bem como a transparência e harmonia das relações de consumo, atendidos os
seguintes princípios: (Redação dada pela Lei nº 9.008, de 21.3.1995).
211
MARQUES, Cláudia Lima. Superação das antinomias pelo diálogo das fontes: o modelo brasileiro de
coexistência entre o Código de Defesa do Consumidor e o Código Civil de 2002. Revista da ESMESE. N. 7,
2004, p. 27.
73
212
BENJAMIN, Antonio Herman V.; BESSA, Leonardo Roscoe; MARQUES, Claudia Lima. Manual de
Direito do Consumidor. 5. ed. São Paulo: Revista dos Tribunais, 2013, p. 99.
213
BENJAMIN, Antonio Herman V.; BESSA, Leonardo Roscoe; MARQUES, Claudia Lima. Manual de
Direito do Consumidor. 5. ed. São Paulo: Revista dos Tribunais, 2013, p. 106.
214
GARCIA, Leonardo de Medeiros. O princípio da informação na pós-modernidade: direito fundamental do
consumidor para o equilíbrio nas relações de consumo. Revista Direito UNIFACS. N. 176, Salvador, 2015, p.
10.
215
MIRAGEM, Bruno. Novo paradigma tecnológico, mercado de consumo digital e o direito do consumidor.
Revista de Direito do Consumidor. Vol. 125. São Paulo: Revista dos Tribunais, set./out. 2019, p. 18.
216
Art. 2º Os sítios eletrônicos ou demais meios eletrônicos utilizados para oferta ou conclusão de contrato de
consumo devem disponibilizar, em local de destaque e de fácil visualização, as seguintes informações: I - nome
empresarial e número de inscrição do fornecedor, quando houver, no Cadastro Nacional de Pessoas Físicas ou no
Cadastro Nacional de Pessoas Jurídicas do Ministério da Fazenda; II - endereço físico e eletrônico, e demais
informações necessárias para sua localização e contato; III - características essenciais do produto ou do serviço,
74
incluídos os riscos à saúde e à segurança dos consumidores; IV - discriminação, no preço, de quaisquer despesas
adicionais ou acessórias, tais como as de entrega ou seguros; V - condições integrais da oferta, incluídas
modalidades de pagamento, disponibilidade, forma e prazo da execução do serviço ou da entrega ou
disponibilização do produto; e VI - informações claras e ostensivas a respeito de quaisquer restrições à fruição da
oferta.
217
LÔBO, Paulo Luiz Netto. A informação como direito fundamental do consumidor. Revista de Direito do
Consumidor. São Paulo: Revista dos Tribunais, n. 37, p. 59-76, 2001, p. 67.
218
LÔBO, Paulo Luiz Netto. A informação como direito fundamental do consumidor. Revista de Direito do
Consumidor. São Paulo: Revista dos Tribunais, n. 37, p. 59-76, 2001, p. 69.
219
LÔBO, Paulo Luiz Netto. A informação como direito fundamental do consumidor. Revista de Direito do
Consumidor. São Paulo: Revista dos Tribunais, n. 37, p. 59-76, 2001, p. 69.
220
LÔBO, Paulo Luiz Netto. A informação como direito fundamental do consumidor. Revista de Direito do
Consumidor. São Paulo: Revista dos Tribunais, n. 37, p. 59-76, 2001, p. 70.
221
MARQUES, Cláudia Lima. A proteção do consumidor de produtos e serviços estrangeiros no Brasil:
primeiras observações sobre os contratos à distância no comércio eletrônico. Revista da Faculdade de Direito
da UFRGS. V. 21, mar./2002, p. 79.
75
No mesmo sentido, é possível que haja o dever de indenizar quando o fornecedor não
informa suficientemente ao consumidor os riscos associados à inteligência artificial. Não se
ignora que a incipiência científica de determinada tecnologia pode entrar em conflito com o
dever de informação do fornecedor acerca dos riscos que o objeto produz. Como informar ao
consumidor riscos que nem sequer há ciência de quais sejam?
Nesse ponto, a solução passa pelos deveres de cooperação e lealdade que norteiam as
relações contratuais e impõem ao fornecedor, numa perspectiva de cuidado e precaução, o
ônus de comunicar aos consumidores os riscos envolvidos na inteligência artificial,
ocasionados pela ausência do conhecimento exato das capacidades e limitações da máquina.
Ademais, há a possibilidade de que efeitos adversos surjam apenas por força do
desenvolvimento posterior do estado da técnica.
Seria um modelo análogo ao que vem sendo feito com maços de cigarros, em que o
próprio fornecedor adverte acerca do caráter tóxico do produto a ser adquirido. Não se
vislumbra necessidade de lei expressa determinando tal advertência, uma vez que essa
informação decorre diretamente dos ditames estampados no Código de Defesa do Consumidor
e da axiologia constitucional, especialmente no que tange à boa-fé objetiva.
Descobertos quaisquer perigos ou ameaças apresentados pelo produto já inserido no
mercado, o fornecedor possui o dever de informar aos consumidores acerca de tal descoberta,
para a tomada de cuidados ou até mesmo a inutilização do produto.
De acordo com Gilberto Almeida:
Sem esse acesso, os consumidores ficarão à mercê do arbítrio dos agentes
empresariais para que se possa discernir quando tenha havido algum excesso ou
222
LÔBO, Paulo Luiz Netto. A informação como direito fundamental do consumidor. Revista de Direito do
Consumidor. São Paulo: Revista dos Tribunais, n. 37, p. 59-76, 2001, p. 69.
223
LÔBO, Paulo Luiz Netto. A informação como direito fundamental do consumidor. Revista de Direito do
Consumidor. São Paulo: Revista dos Tribunais, n. 37, p. 59-76, 2001, p. 69.
224
MARINONI, Luiz Guilherme. A tutela específica do consumidor. Disponível em:
http://www.marinoni.adv.br/wp-content/uploads/2012/06/PROF-MARINONI-A-TUTELA-
ESPEC%C3%8DFICA-DO-CONSUMIDOR-.pdf. Acesso em: 1º jan. 2020.
76
Ainda que não haja conhecimento exato das potencialidades da máquina e/ou dos efeitos
nocivos que possam posteriormente ser descobertos, é imprescindível que o fornecedor
informe sobre esse fator de imprevisibilidade, sob pena de a informação ser considerada
insuficiente e restarem violados os direitos básicos dos consumidores envolvidos, com a
consequente responsabilização.
225
ALMEIDA, Gilberto. Notas sobre utilização de inteligência artificial por agentes empresariais e suas
implicações no âmbito do direito do consumidor. In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.).
Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil,
2019, p. 424.
77
226
O Parlamento Europeu pode, por maioria dos membros que o compõem, solicitar à Comissão que submeta à
sua apreciação todas as propostas adequadas sobre as questões que se lhe afigurem requerer a elaboração de atos
da União para efeitos de aplicação dos Tratados. Caso não apresente uma proposta, a Comissão informa o
Parlamento Europeu dos motivos para tal.
227
SILVA, Nuno Sousa e. Direito e Robótica: uma primeira aproximação. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2990713. Acesso em: 16 jul. 2019. p. 3.
228
CASTRO JÚNIOR, Marco Aurélio de. Personalidade jurídica do Robô e sua efetividade no Direito.
(Tese). Doutorado em Direito. Programa de Pós-Graduação em Direito da Faculdade de Direito da Universidade
Federal da Bahia, Salvador, 2009, p. 191.
78
A noção de sujeito de direito abarca não somente a titularidade de direitos, mas também
a existência de deveres: o conteúdo eficacial das relações jurídicas se compõe, no mínimo, por
direitos e deveres correlatos, necessariamente231. Quando se diz “sujeito de direito”, diz-se,
elipticamente, sujeito de direito, pretensões, ações, exceções, deveres, obrigações e situações
passivas nas ações e exceções. Indaga-se se seria possível falar em direitos de máquinas.
Nesse contexto:
229
COMPARATO, Fábio Konder. O poder de controle na sociedade anônima. 2. ed. São Paulo: Revista dos
Tribunais, 1977, p. 273.
230
MIRANDA, Pontes de. Tratado de Direito Privado. Parte Geral, Tomo I. 4. ed. São Paulo: Revista dos
Tribunais, 1974, p. 155.
231
MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da eficácia, 1. parte. 8. ed. São Paulo:
Saraiva, 2013, p. 199.
232
“In addition, law has made higher-order-collective-actors possible like groups of companies and federal states
that could not exist without the technique of legal personification.” TEUBNER, Gunther. Rights of non-humans?
Electronics agents and animals as new actors in politics and law. Max Weber Lecture Series MWP 2007/4.
European University Institute: n. 4, 2007.
233
EHRHARDT JÚNIOR, Marcos. Direito Civil: LINDB e Parte Geral. 2. ed. Salvador: Editora Juspodivm,
2011, p. 127.
79
Nunca se exigiu, histórica e juridicamente, a presença de vida orgânica para que uma
entidade tivesse atribuída a si personalidade, e, por decorrência, a capacidade de
realizar atos jurídicos, como atesta o conhecido e solidamente estabelecido instituto
da pessoa jurídica. Seria infundada, portanto, a negativa de conceder personalidade
baseada em origem, visto que, há muito, o Direito permite personalidade a entes
vazios de vida234.
Em primeiro lugar, não se pode, com base nas características apontadas, estabelecer
qualquer analogia com os seres humanos. Dir-se-ia mesmo que a comparação – por
maior que seja o grau de sofisticação dos robots (sic) e de outros mecanismos
dotados de inteligência artificial – é desdignificante para o ser humano, reduzindo a
sua autonomia a uma anódina capacidade de escolha. A autonomia dos robots é uma
autonomia tecnológica, fundada nas potencialidades da combinação algorítmica que
é fornecida ao software. Está, portanto, longe do agir ético dos humanos, em que
radica o ser pessoa. Falta-lhes, em cada tomada de decisão, a pressuposição ética,
falha a relação de cuidado com o outro, até porque, em muitos casos, ela pode
mostrar-se incompatível com a eficiência que esta na base da programação
computacional. A pessoalidade e a absoluta dignidade que a acompanha não existem
por referência à inteligência artificial, razão pela qual se, ainda que em concreto um
ser humano esteja privado da capacidade de agir, não lhe pode ser negado o estatuto
de pessoa (e de pessoa para o direito), o mesmo não pode ser sustentado por
referência aos robots. Mesmo que se veja na personalidade jurídica um conceito
operativo e técnica, porque ela é reconhecida (e não atribuída) às pessoas singulares
em razão do seu estatuto ético, não é possível encontrar aí um ponto de apoio seguro
para a extensão do conceito a entes artificiais. Como ainda há pouco tempo
esclarecia Antonio Damásio, por maior que seja a capacidade de raciocínio
algorítmico de um robot, faltar-lhe-ão sempre as outras componentes essenciais da
inteligência humana, como seja a dimensão dos sentimentos. E faltará sempre ao
robot, acrescentamos nós, a dimensão espiritual e da alma. Impor-se-ia, portanto, o
confronto com as pessoas coletivas235.
Pontua-se, ainda, que o ser humano possui inteligências múltiplas ‒ que o caracterizam
como tal e não se restringem à racionalidade ‒ e que a inteligência artificial não é capaz de
levar em conta todas as variáveis oriundas dessa multiplicidade236. Também se levantam
objeções no sentido de que as máquinas seriam entes desprovidos de alma, sentimento,
consciência ou intencionalidade237. Tais argumentos, contudo, não prosperam porquanto tais
234
PIMENTEL JÚNIOR, Gutenberg Farias. Perspectiva de personalidade para inteligências artificiais. 2013.
22f. Monografia de conclusão de curso. Centro de Ciências Jurídicas ‒ Universidade Estadual da Paraíba,
Campina Grande, 2013, p. 17.
235
BARBOSA, Mafalda Miranda. Inteligência artificial, e-persons e direito: desafios e perspectivas. Revista
jurídica luso-brasileira. Nº 6, Ano 3, 2017, p. 1.482.
236
TOMASEVICIUS FILHO, Eduardo. Inteligência artificial e direitos da personalidade: uma contradição em
termos? Revista da Faculdade de Direito da Universidade de São Paulo. V. 113, p. 133-149, jan./dez. 2018,
p. 137.
237
SARIPAN, Hartini; PUTERA, Nurus Sakinatul Fikriah Moh Shith. Are robots humans? A review of the legal
personality model. World applied sciences journal. Malaysia, Faculty of Law, University Teknology MARA,
n. 34, p. 824-831, 2016.
80
238
CASTRO JÚNIOR, Marco Aurélio de. Personalidade jurídica do robô e sua efetividade no Direito. 2009.
222 f. Tese (Doutorado em Direito), Programa de Pós-Graduação em Direito da Universidade Federal da Bahia,
Salvador, 2009, p. 205.
239
Art. 50. Em caso de abuso da personalidade jurídica, caracterizado pelo desvio de finalidade ou pela
confusão patrimonial, pode o juiz, a requerimento da parte, ou do Ministério Público quando lhe couber intervir
no processo, desconsiderá-la para que os efeitos de certas e determinadas relações de obrigações sejam
estendidos aos bens particulares de administradores ou de sócios da pessoa jurídica beneficiados direta ou
indiretamente pelo abuso.
240
Art. 28. O juiz poderá desconsiderar a personalidade jurídica da sociedade quando, em detrimento do
consumidor, houver abuso de direito, excesso de poder, infração da lei, fato ou ato ilícito ou violação dos
estatutos ou contrato social. A desconsideração também será efetivada quando houver falência, estado de
insolvência, encerramento ou inatividade da pessoa jurídica provocados por má administração (...). § 5° Também
poderá ser desconsiderada a pessoa jurídica sempre que sua personalidade for, de alguma forma, obstáculo ao
ressarcimento de prejuízos causados aos consumidores.
81
Também impende evidenciar que os conceitos de pessoa e sujeito de direitos são ideias
que não se confundem, em que pese ambos sejam eficácias classificadas como situações
jurídicas unissubjetivas241. Trata-se de um assunto tormentoso, sobre o qual existem, há
décadas, vozes doutrinárias em sentido diverso, as quais defendem que pessoa é sinônimo de
sujeito de direito242. No entanto, a melhor compreensão é no sentido de que o conceito de
sujeito de direito precede o de pessoa, considerando que ser pessoa é ter a possibilidade de ser
sujeito de direito243.
Com efeito, a discussão emerge num contexto de preocupação com a reparação pelos
prejuízos que podem ser causados pelo desenvolvimento tecnológico. Buscam-se mecanismos
que visem assegurar a indenização pelos prejuízos e se cogita da instituição de uma
241
MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da eficácia, 1ª parte. 8. ed. São Paulo:
Saraiva, 2013, p. 104-106.
242
MONTEIRO, Washington de Barros. Curso de Direito Civil. Vol. 1, São Paulo: Saraiva, 1976, p. 56.
243
MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da eficácia, 1ª parte. 8. ed. São Paulo:
Saraiva, 2013, p. 141.
244
MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da eficácia, 1ª parte. 8. ed. São Paulo:
Saraiva, 2013, p. 141.
245
MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da eficácia, 1ª parte. 8. ed. São Paulo:
Saraiva, 2013, p. 199.
82
Nesse trilhar, a atribuição teria o intuito primordial de tutelar a humanidade em face dos
prejuízos causados por máquinas. Nesse mesmo ponto inicial, impende questionar se há
proporcionalidade na discussão, no que tange à necessidade da medida. Questiona-se se seria
a instituição de personalidade eletrônica o único ou o menos oneroso mecanismo para
assegurar a responsabilidade ou se existiriam outras formas de tutelar os interesses das
vítimas.
246
SILVA, Nuno Sousa e. Direito e Robótica: uma primeira aproximação. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2990713. Acesso em: 16 jul. 2019, p. 11.
247
BARBOSA, Mafalda Miranda. Inteligência artificial, e-persons e direito: desafios e perspectivas. Revista
jurídica luso-brasileira. Nº 6, Ano 3, 2017, p. 1.487.
248
TOMASEVICIUS FILHO, Eduardo. Inteligência artificial e direitos da personalidade: uma contradição em
termos? Revista da Faculdade de Direito da Universidade de São Paulo. V. 113, p. 133-149, jan./dez. 2018,
p. 137.
249
SOLUM, Lawrence B. Legal Personhood for Artificial Intelligences. North Carolina Law Review. Vol. 7, n.
4, 1992, p. 1.245.
83
250
BARBOSA, Mafalda Miranda. Inteligência artificial, e-persons e direito: desafios e perspectivas. Revista
jurídica luso-brasileira. Nº 6, Ano 3, 2017, p. 495.
84
Em tudo isto se vê, afinal, que o ente dotado de inteligência artificial não poderá
nunca ‒ atentas que sejam as exigências do direito ‒ deixar de ser tratado como o
que é: uma coisa, já que o patamar de miscigenação entre humanos e humanoides ou
de corporização computacional da mente humana haverá de ser, necessariamente e
liminarmente, impedido pelo jurídico251.
Essa preocupação é algo que se manifesta inclusive no que tange aos animais,
considerando que já se levantam discussões acerca do status jurídico de tais entes. O Projeto
de Lei nº 27/2018 visa determinar que os animais252 não humanos possuem natureza jurídica
251
BARBOSA, Mafalda Miranda. Inteligência artificial, e-persons e direito: desafios e perspectivas. Revista
Jurídica Luso-Brasileira. Nº 6, Ano 3, 2017, p. 1.502.
252
No que se refere aos direitos dos animais, José Fernando Simão argumenta que “O Código Civil de 2002,
assim como o antigo Código Civil, não prevê que os animais sejam pessoas, pois não são seres humanos e não
receberam do Código Civil a vantagem da personalidade. Trata-se de opção do legislador. Logo, para o Direito
85
sui generis e devem ser considerados sujeitos de direitos despersonificados, podendo obter
tutela jurisdicional na hipótese de violação, sendo vedado o seu tratamento como coisa253.
Argumenta-se que, ainda que os robôs não possuam a mesma sensibilidade dos animais,
alguns fundamentos que justificariam a proteção jurídica de certos animais poderiam ser
transpostos para o tratamento dos robôs254.
A criação de “direitos” dos robôs também pode implicar, por conseguinte, a restrição
ao direito de propriedade do titular, uma vez que reduz as faculdades de uso, gozo e
disposição daquilo que era considerado coisa. A personificação implica não somente a
responsabilização, como a atribuição da capacidade de agir, dando-lhe direitos e deveres e
controle sobre suas decisões, estratégias e interesses, que não se resumem aos de seus
membros ou gerentes (tradução livre)255.
brasileiro os animais são coisas e como tal são objeto de propriedade, podem ser doados, vendidos e utilizados
para consumo, para tração etc.”. Ademais, o Direito Português, que seguia a tradição de considerar os animais
como coisas móveis, “sofre sensível alteração em razão da aprovação da Lei 8 de 2017 (...). Artigo 201.-D
Regime subsidiário. Na ausência de lei especial, são aplicáveis subsidiariamente aos animais as disposições
relativas às coisas, desde que não sejam incompatíveis com a sua natureza. Se se aplicam aos animais as
disposições relativas às coisas, isso significa que os animais não são coisas, mas também não são pessoas. Logo
o que seriam? A solução dada por Antonio Barreto Menezes Cordeiro é adotar a noção de objeto da relação
jurídica para que os animais, apesar de objetos, não sejam coisas em sentido estrito. Isso significa que os
animais, mesmo após a reforma de 2017, prosseguem sendo objeto de contratos de compra e venda, doação,
permuta, locação etc. Contudo, a chave da interpretação do sistema português passa por uma conjugação dos
dois dispositivos transcritos: animais são seres dotados de sensibilidade aos quais só se aplicam as regras
relativas às coisas se compatíveis com sua natureza. SIMÃO, José Fernando. Direito dos Animais: Natureza
Jurídica. A visão do Direito Civil. Revista Jurídica Luso-Brasileira. Nº 4, Ano 3, 2017, p. 897-911.
253
SENADO FEDERAL. Projeto de Lei da Câmara n. 27, de 2018. Disponível em:
https://www25.senado.leg.br/web/atividade/materias/-/materia/133167?o=c. Acesso em: 16 jul. 2019.
254
SILVA, Nuno Sousa e. Direito e Robótica: uma primeira aproximação. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2990713. Acesso em: 16 jul. 2019.
255
“The law plays a special role in this game; it stabilizes non-human personality by granting legal status to the
hybrids via the construct of juridical person, by attributing to them the capacity to act, by giving them rights,
burdening them with duties and making them liable in several forms of legal responsability.” TEUBNER,
Gunther. Rights of non-humans? Electronics agents and animals as new actors in politics and law. Max Weber
Lecture Series MWP 2007/4. European University Institute: n. 4, 2007, p. 16.
256
MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da eficácia. 1ª parte. 8. ed. São Paulo:
Saraiva, 2013, p. 146.
86
Os agentes, então, não seriam pessoas de forma integral, mas teriam capacidades
jurídicas compatíveis com a sua função ou serviço, isto é, os atributos da personalidade
seriam parcialmente imputados às máquinas, sendo possível que uma entidade tenha
capacidade no que diz respeito a algumas áreas do direito, ao tempo que poderia ser excluída
de outras258. Não obstante a solução seja intermediária e tente viabilizar a proposta europeia
numa concepção mais palpável para os dias atuais, o fato é que se trata de ideia complexa e
que ainda enfrenta obstáculos concernentes à identificação do que poderia entrar no âmbito da
personalidade e o que ficaria excluído.
Apesar de parecer possuir linhas de semelhança com o tratamento dado aos entes
despersonalizados, impende evidenciar que ainda não se verifica a efetiva necessidade da
introdução de instituto de tamanha complexidade no ordenamento jurídico brasileiro, ao
menos no presente momento, sendo viável pensar em outros caminhos e alternativas para
assegurar a reparação da vítima.
257
SCHIRMER, Jan-Erik. Artificial Intelligence and legal personality. "Teilrechtsfähigkeit": A partial legal
status made in Germany. In: WISCHMEYER, Thomas; RADEMACHER, Thomas (Eds.). Regulating
Artificial Intelligence. 2020. Disponível em: https://www.rewi.hu-berlin.de/de/lf/ls/bcm/team/jan-erik-
schirmer/publikationen-und-vortraege/Schirmer_RegulatingAI_Teilrechtsfaehigkeit.pdf. Acesso em: 26 ago.
2020, p. 11.
258
SCHIRMER, Jan-Erik. Artificial Intelligence and legal personality. "Teilrechtsfähigkeit": A partial legal
status made in Germany. In: WISCHMEYER, Thomas; RADEMACHER, Thomas (Eds.). Regulating
Artificial Intelligence. 2020. Disponível em: https://www.rewi.hu-berlin.de/de/lf/ls/bcm/team/jan-erik-
schirmer/publikationen-und-vortraege/Schirmer_RegulatingAI_Teilrechtsfaehigkeit.pdf. Acesso em: 26 ago.
2020, p. 12.
87
Uma das alternativas apontadas para assegurar a indenização de vítimas afetadas por
prejuízos oriundos do desenvolvimento da inteligência artificial é o regime de seguros
obrigatórios. Nesse ponto, ressalta-se que:
Uma solução possível e provável, tendo em conta a complexidade do tema, deve ser
a instituição de um regime de seguros obrigatórios, como já acontece, por exemplo,
com a circulação de automóveis nos países-membros, que deverá impor aos
produtores ou aos proprietários de robôs a subscrição de um seguro para cobrir os
potenciais danos que vierem a ser causados pelos seus robôs, sugerindo, ainda, que
esse regime de seguros seja complementado por um fundo de compensação, para
garantir, inclusive, a reparação de danos não abrangidos por qualquer seguro259.
Trata-se de um mecanismo para ofertar garantias por parte daqueles que se situam em
melhor posição para absorver os riscos, de modo que os agentes da cadeia de inteligência
artificial se obrigariam a contribuir de acordo com o seu nível de envolvimento técnico e
econômico. No mesmo sentido:
A solução da transferência do dever de indemnizar (sic) para sistemas de seguro
obrigatório ou facultativo ou, mesmo, regimes de segurança social, em qualquer dos
casos financiados, essencialmente, por contribuições económicas das empresas
produtoras das novas tecnologias, é a resposta desejável ao alargamento da
responsabilidade objetiva. Esta opção não deve, porém, perder de vista que a
imputação do dever de indemnizar (sic) a um comportamento censurável é a matriz
da responsabilidade civil. De forma a estimular as condutas adequadas e a prevenir o
risco de uma desresponsabilização dos agentes mediante a contratação do seguro,
afigura-se justificado estabelecer consequências indemnizatórias (sic) diversas em
função do grau de culpa do lesante260.
Ainda não se discute qual o tipo de seguro ou quem arcaria com esse ônus. Há quem
argumente que a abrangência do seguro não seria ilimitada, incidindo somente quando não
houvesse uma contribuição efetiva da máquina para a ocorrência dos danos:
A exclusão do dever de indemnizar (sic) e da consequente cobertura desse dever
pelo seguro obrigatório é aferida pela ausência de qualquer contribuição do binómio
detentor-máquina para os danos. Tão-só (sic) quando a utilização do robô fosse
totalmente indiferente à lesão causada seria de admitir o afastamento da
responsabilidade261.
Tal perspectiva, contudo, não parece coerente com a lógica dos sistemas de seguro
obrigatório e com a noção de prevalência da tutela da vítima em detrimento da reprovação do
ofensor. Com efeito, o regime de seguros obrigatórios surge para assegurar que os danos
259
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos
da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Revista Brasileira de
Políticas Públicas: v. 7, n. 3, dez. 2017, p. 250.
260
ANTUNES, Henrique Sousa. Inteligência artificial e responsabilidade civil: enquadramento. Revista de
Direito da Responsabilidade. Ano 1, 2019, p. 140.
261
ANTUNES, Henrique Sousa. Inteligência artificial e responsabilidade civil: enquadramento. Revista de
Direito da Responsabilidade. Ano 1, 2019, p. 149.
88
suportados por determinada vítima serão efetivamente ressarcidos, razão pela qual se opina
pela menor consideração valorativa da ofensividade da conduta da máquina para a verificação
do dever de indenização. Essa discussão assume relevância especialmente no que tange aos
veículos autônomos, compreendidos como aqueles cuja operação prescinde da participação
direta do motorista no controle de direção, aceleração e frenagem, e para o monitoramento das
condições da via262, em que se cogita a alteração da legislação para estabelecer a
obrigatoriedade de um seguro obrigatório por danos causados a terceiros263.
Por outro lado, a dinamicidade inerente ao âmbito tecnológico também impõe desafios
quando se trata de proposições de alterações legislativas. Nesse ponto, Nuno Sousa e Silva
sublinha que:
Por agora, creio que se impõe prudência e uma busca de soluções dentro do quadro
do sistema positivo, recorrendo, nos primeiros casos inovadores, à extensão
teleológica. Não me parece avisado proceder – pelo menos nesta fase – a alterações
legislativas. Será bom que a realidade teste o sistema com casos da vida, antes de
fazermos precipitadas avaliações de um futuro que, por natureza, é desconhecido264.
262 OLIVEIRA, Carlos Eduardo Elias de; LEAL, Túlio Augusto Castelo Branco. Considerações sobre os
veículos autônomos: possíveis impactos econômicos, urbanos e das relações jurídicas. Brasília: Núcleo de
Estudos e Pesquisas/CONLEG/Senado, Outubro/2016 (Texto para discussão nº 214). Disponível em:
www.senado.leg.br/estudos. Acesso em: 20 jan. 2020, p. 10.
263 Essa preocupação assume ainda mais relevância após a adoção da Medida Provisória 904/2019, que dispôs
sobre a extinção do Seguro Obrigatório de Danos Pessoais causados por Veículos Automotores de Vias
Terrestres (DPVAT) e que se encontra suspensa por força de decisão liminar proferida pelo Min. Edson Fachin
no julgamento da Ação Direta de Inconstitucionalidade 6262. Com efeito, a Lei nº 6.194/74 dispõe sobre o
Seguro Obrigatório de Danos Pessoais causados por veículos automotores de vias terrestres, assegurando uma
indenização tarifada às vítimas de prejuízos decorrentes de acidentes automobilísticos, independentemente de
prova de culpa do motorista.
264
SILVA, Nuno Sousa e. Direito e Robótica: uma primeira aproximação. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2990713. Acesso em: 20 jan. 2020, p. 27.
265
PARLAMENTO EUROPEU. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém
recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL)). Disponível
em: http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html. Acesso em: 20 jan. 2020.
89
Ao dispor que o regime de seguros para a robótica deve ter em conta todos os
elementos potenciais da cadeia de responsabilidade, a Resolução propugna por afastar a
restrição do seguro aos casos de imputação de prejuízos às falhas humanas, considerando toda
a complexidade que envolve a discussão sobre a inteligência artificial. O artigo 58 aduz,
ainda, que à semelhança do que acontece com os veículos motorizados, esse regime de
seguros poderia ser complementado por um fundo de garantia da reparação de danos nos
casos não abrangidos por qualquer seguro266.
Em contrapartida, a Resolução sugere que o fabricante, programador, proprietário ou
utilizador possam se beneficiar de uma responsabilidade limitada, caso contribuam para um
fundo de compensação ou se subscreverem conjuntamente um seguro a fim de garantir a
indenização, o que deve ser pensado com extrema cautela para que não se proporcione um
sacrifício dos interesses da vítima. No modelo europeu, portanto, os seguros poderiam ser
assumidos tanto pelo consumidor como pelo fornecedor267.
Nesse ponto, o artigo 59 também sugere a criação de um fundo geral para todos os
robôs autônomos inteligentes ou um fundo individual para toda e qualquer categoria de robôs,
no qual haveria o pagamento de uma taxa no momento em que se coloca o robô em circulação
no mercado ou o pagamento de contribuições periódicas durante o tempo de uso do robô.
Também se privilegia o direito à informação do usuário, garantindo que a ligação entre um
266
58. Considera que, à semelhança do que acontece com os veículos motorizados, esse regime de seguros
poderia ser complementado por um fundo de garantia da reparação de danos nos casos não abrangidos por
qualquer seguro; insta o setor dos seguros a criar novos produtos e novos tipos de ofertas que estejam em linha
com os avanços na robótica.
267
59. Insta a Comissão a explorar, analisar e ponderar, na avaliação de impacto que fizer do seu futuro
instrumento legislativo, as implicações de todas as soluções jurídicas possíveis, tais como: a) Criar um regime
de seguros obrigatórios, se tal for pertinente e necessário para categorias específicas de robôs, em que, tal como
acontece já com os carros, os produtores ou os proprietários de robôs seriam obrigados a subscrever um seguro
para cobrir os danos potencialmente causados pelos seus robôs; b) Garantir que um fundo de compensação não
serviria apenas para garantir uma compensação se um dano causado por um robô não se encontrasse abrangido
por um seguro; c) Permitir que o fabricante, o programador, o proprietário ou o utilizador beneficiassem de
responsabilidade limitada se contribuíssem para um fundo de compensação, bem como se subscrevessem
conjuntamente um seguro para garantir a indemnização quando o dano é causado por um robô; d) Decidir
quanto à criação de um fundo geral para todos os robôs autónomos inteligentes ou quanto à criação de um fundo
individual para toda e qualquer categoria de robôs e quanto à contribuição que deve ser paga a título de taxa
pontual no momento em que se coloca o robô no mercado ou quanto ao pagamento de contribuições periódicas
durante o tempo de vida do robô; e) Garantir que a ligação entre um robô e o respetivo fundo seja patente pelo
número de registo individual constante de um registo específico da União que permita que qualquer pessoa que
interaja com o robô seja informada da natureza do fundo, dos limites da respetiva responsabilidade em caso de
danos patrimoniais, dos nomes e dos cargos dos contribuidores e de todas as outras informações relevantes;
f) Criar um estatuto jurídico específico para os robôs a longo prazo, de modo a que, pelo menos, os robôs
autónomos mais sofisticados possam ser determinados como detentores do estatuto de pessoas eletrónicas
responsáveis por sanar quaisquer danos que possam causar e, eventualmente, aplicar a personalidade eletrónica a
casos em que os robôs tomam decisões autónomas ou em que interagem por qualquer outro modo com terceiros
de forma independente; g) Introduzir um instrumento especificamente para os consumidores que tencionem
requerer coletivamente uma compensação por danos decorrentes do mau funcionamento de máquinas
inteligentes às empresas produtoras responsáveis.
90
robô e seu respectivo fundo seja registrada por um número apto a permitir que qualquer
pessoa que interagisse com a máquina fosse informada da natureza do fundo, dos limites da
responsabilidade, do nome e dos cargos dos contribuintes, bem como de todas as outras
informações pertinentes.
268
Art. 82. Para os fins do art. 81, parágrafo único, são legitimados concorrentemente: (Redação dada pela Lei nº
9.008, de 21.3.1995) (Vide Lei nº 13.105, de 2015) (Vigência): I - o Ministério Público; II - a União, os Estados,
os Municípios e o Distrito Federal; III - as entidades e órgãos da Administração Pública, direta ou indireta, ainda
que sem personalidade jurídica, especificamente destinados à defesa dos interesses e direitos protegidos por este
código; IV - as associações legalmente constituídas há pelo menos um ano e que incluam entre seus fins
institucionais a defesa dos interesses e direitos protegidos por este código, dispensada a autorização assemblear.
91
concederem mais segurança àqueles que investem na área e também aos usuários dessas
tecnologias, assegurando razoável equilíbrio entre os interesses envolvidos.
Quanto aos seguros, contudo, essa proposta também não resolve todos os impasses.
Isso porque as apólices são limitadas até determinado valor, o que pode não compensar todo o
prejuízo suportado pela vítima, tendo em vista que ainda não se conhece o completo potencial
de extensão dos danos. Nesse panorama, é imprescindível compreender o seguro como uma
garantia adicional, que não afasta a possibilidade de indenização suplementar. Também se
apontam as
A partir de tal crítica, Luciana Pedroso Xavier e Mayara Guibor Spaler sugerem a
criação de um “patrimônio de afetação, o que poderia segregar uma quantia para assegurar o
recebimento de indenizações – ao menos em patamar razoável – pelas vítimas de danos, e
assim propiciar que recebam a indenização que lhes é devida271”. Essa perspectiva se alicerça
na noção contemporânea de separação entre personalidade e patrimônio, admitindo-se a
269
PORTO, Uly de Carvalho Rocha. A responsabilidade civil extracontratual por danos causados por robôs
autônomos. 2018. Dissertação (Mestrado em Ciências Jurídico-Civilistas), Faculdade de Direito da
Universidade de Coimbra, Coimbra, 128 p., p. 41.
270
XAVIER, Luciana Pedroso; SPALER, Mayara Guibor. Patrimônio de afetação: uma possível solução para os
danos causados por sistemas de inteligência artificial. In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.).
Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil,
2019, p. 555.
271
XAVIER, Luciana Pedroso; SPALER, Mayara Guibor. Patrimônio de afetação: uma possível solução para os
danos causados por sistemas de inteligência artificial. In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.).
Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil,
2019, p. 555.
92
272
A segregação de patrimônio caracteriza-se pela realização de contabilidade apartada e por não responder por
dívidas ou obrigações que não tenham pertinência com o objetivo para o qual foi constituído.
273
XAVIER, Luciana Pedroso; SPALER, Mayara Guibor. Patrimônio de afetação: uma possível solução para os
danos causados por sistemas de inteligência artificial. In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.).
Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil,
2019, p. 559.
93
financeira que financiou o empreendimento (art. 31-E, Lei nº 4.591/64). No caso de danos
causados por inteligências artificiais, recomenda-se “o lapso mínimo de dez anos, em razão do
prazo prescricional de cinco anos estabelecido pelo Código de Defesa do Consumidor para os
fatos do produto e do serviço, ressalvando que a contagem do prazo inicia-se a partir do
conhecimento do dano e de sua autoria274”.
Tal discussão, por óbvio, não pretende esgotar as alternativas viáveis para a
consolidação da reparação das vítimas no contexto contemporâneo, mas somente pincelar o
atual estado da arte no que tange a essa temática. A incerteza do porvir é um fenômeno do
qual não se pode fugir – é possível, inclusive, que tenhamos um índice muito menor de danos
e de pleitos indenizatórios. Em face do incontingente, é sempre prudente ponderar as
possibilidades de regulação e/ou do tratamento jurídico da matéria.
274
XAVIER, Luciana Pedroso; SPALER, Mayara Guibor. Patrimônio de afetação: uma possível solução para os
danos causados por sistemas de inteligência artificial. In: FRAZÃO, Ana. MULHOLLAND, Caitlin (coord.).
Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil,
2019, p. 559.
94
275
No mesmo sentido, o credit score é um sistema amplamente utilizado pelas instituições financeiras para a
verificação de viabilidade de concessão de crédito aos consumidores, cuja utilização resta autorizada por meio da
Súmula 550 do Superior Tribunal de Justiça, onde se consagra que a utilização de escore de crédito ‒ método
estatístico de avaliação de risco ‒ dispensa o consentimento do consumidor, que terá o direito de solicitar
esclarecimentos sobre as informações pessoais valoradas e as fontes dos dados considerados no respectivo
cálculo. Com efeito, em que pese o consumidor tenha o direito de pleitear esclarecimentos acerca das
informações consideradas, tal prática ainda não é costumeira no mercado de consumo, o que fomenta a
opacidade do algoritmo e a falta de transparência na avaliação do crédito.
95
276
El riesgo es creado respecto a todo tipo o modalidad de derechos, sean materiales o inmateriales. En este
sentido, tanto la lesión patrimonial o como la extrapatrimonial, puede constituir un riesgo. A título de ejemplo, el
riesgo puede ser de destrucción de un inmueble ajeno o de una clara lesión irreversible a un derecho de la
personalidad, por ejemplo, el honor o el buen nombre. TARTUCE, Flavio. La cláusula general de
responsabilidad objetiva en los diez años del nuevo código civil brasileño In: MORE, César E. Moreno.
Estudios sobre la responsabilidad civil. Lima: Ediciones legales, 2015, p. 136.
277
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da
inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Revista Brasileira de Políticas
Públicas: v. 7, n. 3, dez. 2017, p. 19.
278
”El mundo digital ha constituido otra hipótesis relativa al supuesto campo de incidencia de la cláusula general
de actividad de riesgo, vale decir, el internet, la gran red virtual de computadoras que ofrece una serie de riesgos
96
a los usuarios”. TARTUCE, Flavio. La cláusula general de responsabilidad objetiva en los diez años del nuevo
código civil brasileño In: MORE, César E. Moreno. Estudios sobre la responsabilidad civil. Lima: Ediciones
legales, 2015, p. 160.
279
MONTEIRO FILHO, Carlos Edilson do Rêgo Monteiro. Limites ao princípio da reparação integral no direito
brasileiro. Civilística. A. 7, n. 1, 2018, p. 3.
280
MONTEIRO FILHO, Carlos Edilson do Rêgo Monteiro. Limites ao princípio da reparação integral no direito
brasileiro. Civilística. A. 7, n. 1, 2018, p. 6.
281
Apontamentos para uma Teoria Geral da Responsabilidade Civil no Brasil. In: ROSENVALD, Nelson;
MILAGRES, Marcelo. (Org.). Responsabilidade Civil: novas tendências. 2. ed. Indaiatuba, SP: Foco, 2018, v.
1, p. 45-72. Disponível em: http://www.marcosehrhardt.adv.br/index.php/artigo/2014/03/12/em-busca-de-uma-
teoria-geral-da-responsabilidade-civil. Acesso em: 9 abr. 2020, p. 4.
282
Art. 944. A indenização mede-se pela extensão do dano.
97
283
JABUR, Gilberto Haddad. Direito Privado, Direito Constitucional e Dignidade Humana. Revista Jurídica
Luso-Brasileira. Ano 4, n. 5, 2018, p. 879.
284
“Negligence strikes a balance between the interests of plaintiffs and defendants. Society has interests in
reducing injuries and compensating victims as well as encouraging economic growth and progress. One way that
tort law attempts to achieve this balance is by permitting recovery in negligence only where there has been
socially blameworthy conduct (...). Holding computer-generated torts to a negligence standard will result in an
improved outcome: it will accelerate the adoption of automation where doing so would reduce accidents (...). In
the context of automated driving, human drivers would be liable for harms they cause due to their own driving
decisions, while a manufacturer would be strictly liable for harms caused by defective machines that are not
automating human functions (as would be the case for MacPherson’s Buick151), but manufacturers would be
liable in negligence rather than strict liability for errors made by autonomous driving software if the software
were proven safer on average than a person”. ABOTT, Ryan. The Reasonable Computer: Disrupting the
Paradigm of Tort Liability. The George Washington Law Review. Washington, Vol. 86, n. 1, 2018, p. 12 e 22.
285
“while no-fault regimes may be more efficient due to their savings in administrative costs and judicial errors,
they may increase the number of accidents due to lack of deterrence.” RACHUM-TWAIG, Omri. Whose robot is
it anyway? Liability for artificial-intelligence-based robots. University of Illinois Law Review. 2020, p. 26.
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3339230. Acesso em: 13 mai. 2020.
98
286
MORAES, Maria Celina Bodin de. LGPD: um novo regime de responsabilização dito “proativo”. Civilística.
A. 8, n. 3, 2019. Disponível em: http://civilistica.com/lgpd-um-novo-regime-de-responsabilizacao-civil-dito-
proativo/. Acesso em: 28 mar. 2020
287
O projeto de lei nº 21/2020, de autoria do Deputado Eduardo Bismarck (PDT/CE), estabelece princípios,
direitos e deveres para o uso de inteligência artificial no Brasil. Nesse ponto, o projeto de lei assenta, em seu art.
2º, que são agentes de inteligência artificial as pessoas físicas ou jurídicas, de direito público ou privado, e entes
sem personalidade jurídica, classificados como agentes de desenvolvimento, agentes de operação e partes
interessadas. Agentes de desenvolvimento seriam aqueles que participam das fases de planejamento e design,
coleta e processamento de dados e construção de modelo, de verificação e validação ou de implantação do
sistema de inteligência artificial, ao passo em que agentes de operação seriam todos aqueles que participam da
fase de monitoramento e operação do sistema de IA e partes interessadas são todos aqueles envolvidos ou
afetados, direta ou indiretamente, por sistemas de IA. O art. 9º, em seu inciso V, determina que é dever dos
agentes de inteligência artificial responder, na forma da lei, pelas decisões tomadas por um sistema de
inteligência artificial. Tal disposição legislativa não caracteriza, assim, nenhuma inovação jurídica. Em
continuidade, o inciso VI estipula que é dever dos agentes proteger continuamente os sistemas de IA contra
ameaças de segurança cibernética e que, para fins deste inciso, a responsabilidade pelos sistemas de inteligência
artificial deve residir nos agentes de desenvolvimento e de operação de sistemas de IA, observadas as suas
funções. Nesse panorama, a disposição parece exceptuar o regime de responsabilidade solidária determinado
pela legislação consumerista, adaptando a responsabilidade à observância da função de cada operador, à
semelhança do que dispõe o art. 19 do Marco Civil da Internet quando estipula que a responsabilidade do
provedor de aplicações de internet ocorrerá no âmbito e nos limites técnicos de seu serviço. Sobre tal proposta,
verifica-se que a ideia de estipular que a responsabilidade de cada agente de inteligência artificial ocorrerá no
âmbito de suas funções somente poderia soar razoável em nível de regresso, onde houvesse mínima condição de
se perquirir quem foi o efetivo causador de determinado dano, uma vez que, em face do consumidor, são
inúmeras as dificuldades impostas na verificação dos limites técnicos do serviço de cada agente.
99
estratégicas nos setores públicos e privados. Para tanto, a estratégia estabelece eixos
temáticos, apresenta um diagnóstico da situação atual da IA no mundo e no Brasil, destaca os
desafios a serem enfrentados e oferece uma visão de futuro, fundamentada nos princípios do
crescimento inclusivo, desenvolvimento sustentável e bem-estar, valores centrados no ser
humano e na equidade, transparência e explicabilidade, robustez, segurança, proteção e
responsabilização ou prestação de contas.
288
Art. 186. Aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar
dano a outrem, ainda que exclusivamente moral, comete ato ilícito.
289
Art. 927. Aquele que, por ato ilícito (arts. 186 e 187), causar dano a outrem, fica obrigado a repará-lo.
290
BESSA, Leonardo Roscoe. Responsabilidade objetiva no Código de Defesa do Consumidor. Revista
Jurídica da Presidência. V. 20, n. 120, Fev./Mai. 2018, p. 20-43, p. 29.
100
A responsabilidade pelo fato do produto diz respeito aos danos causados em razão de
defeito na concepção, produção, comercialização ou fornecimento de produto ou serviço,
violando o dever de segurança que tutela a integridade do consumidor291. A responsabilidade
pelos vícios, por sua vez, diz respeito à violação de um dever de adequação, quando o produto
ou serviço fornecido não atende aos fins que legitimamente dele se esperam292.
Quanto à responsabilidade civil no âmbito da inteligência artificial, Mafalda Miranda
Barbosa argumenta:
A responsabilidade extracontratual fundada na culpa mostra-se a este nível
insuficiente. Se há muitos casos em que pode existir culpa (pense-se, por exemplo,
nas hipóteses de não realização das atualizações do software; ou de situações de
quebra de deveres de cuidado que permitem que terceiros – hackers – interfiram com
o sistema, a determinar problemas mais ou menos complexos, mas interessantes de
imputação), noutros o juízo de censura estará ausente. É claro que a este nível
podem auxiliar-nos as presunções de culpa do artigo 493º CC, quer no tocante à
detenção de coisa móvel ou imóvel, quer no tocante à perigosidade da atividade, em
função da natureza do meio utilizado (o robot). Mas a presunção poderá ser ilidida
sempre que o vigilante da coisa provar que não houve culpa da sua parte, que os
danos se teriam igualmente produzido se não houvesse culpa sua ou que, no caso do
nº 2, empregou todas as providências exigidas pelas circunstâncias com o fim de
prevenir os danos. E tal pode, de facto, ocorrer se, a despeito de todos os cuidados
tidos pelo utilizador do ente dotado de inteligência artificial o dano resultar da sua
atuação normal – autónoma –, tornando-se, por isso, fundamental chamar à colação
algumas hipóteses de responsabilidade pelo risco293.
291
MIRAGEM, Bruno. Curso de Direito do Consumidor. 6. ed. rev., atual e ampl. São Paulo: Revista dos
Tribunais, 2016, p. 575.
292
MIRAGEM, Bruno. Curso de Direito do Consumidor. 6. ed. rev., atual e ampl. São Paulo: Revista dos
Tribunais, 2016, p. 575.
293
BARBOSA, Mafalda Miranda. Inteligência artificial e blockchain: desafios para a responsabilidade civil.
Revista de Direito da Responsabilidade. Ano 1, 2019, p. 2-3.
101
programador, responsável por seu “treinamento”294. Tal perspectiva, contudo, não merece
prosperar, uma vez que, tratando-se a inteligência artificial como coisa, resta inviabilizado o
referido raciocínio, que parte do pressuposto do relacionamento entre duas pessoas.
A identificação de um responsável efetivo nem sempre será fácil. Isso porque cada
sistema pode possuir graus de controle diferenciados, sendo impraticável pensar num controle
absoluto por parte do usuário, ressalvadas as exceções em que o sistema somente prossegue a
partir de determinado comando do proprietário.
Com efeito, a inteligência artificial costuma ter três usos correntes nos processos
contemporâneos: a organização de dados, o auxílio à tomada de decisão e a automação da
decisão295. Exemplo dado pela doutrina sobre as dificuldades que podem surgir é a hipótese
de um
(...) edifício comercial dotado de detector de fumaça, operante a partir do
recolhimento de dados por sensores incorporados, que emite avisos ao proprietário e
à unidade de bombeiros mais próxima sobre a existência de qualquer foco de
incêndio. O detector pode funcionar de modo integrado também com outros sistemas
inteligentes, de modo a liberar o acesso dos bombeiros e a cessar o fornecimento de
gás e energia elétrica, por exemplo. Na eventualidade da ocorrência de incêndio que
destrua todo o edifício, sem o envio de qualquer alerta por parte do detector, poder-
se-ia indagar: a quem deve ser imputada a responsabilidade pelos danos sofridos
pelo proprietário e que teriam sido evitados caso o sistema de detecção houvesse
funcionado regularmente? Como delimitar a contribuição causal dos diversos
fornecedores potencialmente envolvidos (pense-se, entre outros, no vendedor final
do dispositivo, no desenvolvedor do software de coleta e tratamento dos dados, no
desenvolvedor do software de comunicação com o proprietário e com os bombeiros,
no prestador do serviço de acesso à internet)?296
294
MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto
Alegre: Arquipélago Editorial, 2019, p. 102.
295
STEIBEL, Fabro. VICENTE, Victor Freitas. JESUS, Diego Santos Vieira de. Possibilidades e potenciais da
utilização da inteligência artificial. In: FRAZÃO, Ana. MULLHOLLAND, Caitlin (coord.). Inteligência
artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2019, p. 58.
296
TEPEDINO, Gustavo. SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de
responsabilidade civil. Revista Brasileira de Direito Civil. Belo Horizonte, V. 21, p. 61-86, jul./set. 2019, p. 16.
297
SILVA, Nuno Sousa e. Direito e Robótica: uma primeira aproximação. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2990713. Acesso em: 21 mar. 2020, p. 23.
102
298
TEPEDINO, Gustavo. SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de
responsabilidade civil. Revista Brasileira de Direito Civil. Belo Horizonte, V. 21, p. 61-86, jul./set. 2019, p. 24.
299
PORTO, Uly de Carvalho Rocha. A responsabilidade civil extracontratual por danos causados por robôs
autônomos. 2018. Dissertação (Mestrado em Ciências Jurídico-Civilistas), Faculdade de Direito da
Universidade de Coimbra, Coimbra, 128 p., p. 48.
103
Não se ignora que a noção de defeito parece insuficiente, pois os sistemas de inteligência
artificial podem apresentar resultados inesperados em razão da black box, isto é, um resultado
adverso oriundo do comportamento imprevisível da máquina que, como se sabe, é fenômeno
comum nesse tipo de programação.
Segundo Filipe Medon:
É por isso que se tem defendido que a lógica tradicional da responsabilidade pelo
fato do produto não daria mais conta de explicar danos causados por uma ação
autônoma da máquina, pois esse agir não seria propriamente um defeito imputável
aos seus fabricantes, mas uma decorrência da autonomia crescente da Inteligência
Artificial, que se distanciaria da concepção de robôs como meras ferramentas a
serviço dos humanos302.
300
PORTO, Uly de Carvalho Rocha. A responsabilidade civil extracontratual por danos causados por robôs
autônomos. 2018. Dissertação (Mestrado em Ciências Jurídico-Civilistas), Faculdade de Direito da
Universidade de Coimbra, Coimbra, 128 p., p. 52.
301
”The seller shall be liable to the consumer for any lack of conformity which exists at the time the goods were
delivered. In the case of a lack of conformity, the consumer shall be entitled to have the goods brought into
conformity free of charge by repair or replacement or to have an appropriate reduction made in the price or shall
be able to rescind the contract of sale of those goods. Any commercial guarantee offered by a seller or producer
is legally binding upon him under the conditions laid down in the guarantee document and associated
advertising.” HINGELDORF, Eric. SEIDEL, Uwe. Robotics, Autonomics and the Law. Vol. 14, Baden-
Baden: Nomos, 2014, p. 43-44.
302
MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: Autonomia, Riscos e Solidariedade.
Salvador: Editora JusPodivm, 2020, p. 348.
104
Nesse ponto, a linha divisória entre o dano produzido por sistema defeituoso e o dano
produzido por sistema não defeituoso torna mais problemático o potencial de lesão à
coletividade e o temor de responsabilização. Opina Mafalda Miranda Barbosa:
Dito de outro modo, a idealização do robot (programação do software) pode não
apresentar qualquer defeito, do mesmo modo que, na fase do fabrico do mecanismo
no qual se integra a inteligência artificial, pode não ocorrer qualquer
desconformidade entre o resultado final e o que era esperado pelo produtor. Os
danos causados pelo robot dito inteligente são gerados pela sua atuação autónoma
que, longe de ser uma marca de defeituosidade, se traduz numa sua característica
intrínseca304.
303
PORTO, Uly de Carvalho Rocha. A responsabilidade civil extracontratual por danos causados por robôs
autônomos. 2018. Dissertação (Mestrado em Ciências Jurídico-Civilistas), Faculdade de Direito da
Universidade de Coimbra, Coimbra, 128 p., p. 92.
304
BARBOSA, Mafalda Miranda. Inteligência artificial e blockchain: desafios para a responsabilidade civil.
Revista de Direito da Responsabilidade. Ano 1, 2019, p. 5.
105
305
FRAZÃO, Ana. Risco da empresa e caso fortuito externo. Civilística. Rio de Janeiro, a. 5. n. 1. 2016, p. 1-27,
p. 2. Disponível em: https://civilistica.emnuvens.com.br/redc/article/view/239/197 Acesso em: 10 set. 2020.
306
THE GUARDIAN. Robot kills factory worker. Disponível em:
https://www.theguardian.com/theguardian/2014/dec/09/robot-kills-factory-worker. Acesso em: 16 abr. 2020.
307
A menção à responsabilidade civil no Direito do Trabalho é exemplificativa e não constitui objeto da presente
dissertação.
106
proprietário, ainda que acobertado por eventuais excludentes de ilicitude. Noutro giro,
constatando-se quaisquer falhas na máquina, sejam vícios de concepção, fabricação,
informação, ou, até mesmo, situações que não eram previstas no momento da circulação do
objeto, a responsabilidade recai sobre o fornecedor.
Um dos mais famosos acidentes com veículos autônomos foi o da Sra. Elaine Herzberg.
Ela foi atingida por um veículo autônomo da Uber quando atravessava uma rua mal
iluminada. O veículo contava com uma motorista de segurança, contratada especialmente para
intervir na hipótese de emergências, mas que, no momento do acidente, não o fez. A
promotoria concluiu que não havia responsabilidade da Uber, dada a ausência de defeitos no
software, indiciando a motorista de segurança que, em tese, estaria distraída no momento da
colisão308.
Nesse caso, também havia indício de negligência da própria vítima, que teria invadido a
pista em uma bicicleta a partir de uma área pouco iluminada e fora da faixa de pedestre.
Informações de telemetria indicaram que o veículo trafegava a 61 km/h, um pouco acima do
limite de velocidade da via, e que o sistema de direção autônomo optou por não desviar em
razão da presença de outros veículos e transeuntes no local.
Em hipóteses como essa, impende evidenciar se houve defeito no software ou na
condução do veículo, se houve fato exclusivo da vítima ou fato de terceiro. Constatando-se
que o motorista de segurança não adequou a velocidade do veículo à via trafegada ou não
interveio no momento em que deveria ter feito, é razoável constatar que houve fato de
terceiro, apto a atrair a responsabilidade daquele para a indenização.
Não há prejuízo da mitigação da indenização por fato concorrente da vítima, quando se
constata que esta também foi negligente ao trafegar em locais inadequados. Noutro norte,
constatando-se que o veículo autônomo não desviou da vítima em razão da presença de outros
objetos ‒ seja por ter sido previamente programado para tanto, seja por uma postura
imprevisível ‒, há de se questionar se tal conduta não caracteriza um defeito.
Em que pese seja razoável compreender a ausência de desvio quando se verifica a
presença de outros transeuntes, a presença de meros objetos não possui o condão de autorizar
tal desvio, uma vez que se privilegia a vida humana em face da presença de coisas, sendo
razoável a colisão com outros utensílios em razão da caracterização do evidente estado de
308
CANAL TECH. Justiça retira ação criminal contra UBER por atropelamento com carro autônomo.
Disponível em: https://canaltech.com.br/carros/justica-retira-acao-criminal-contra-uber-por-atropelamento-com-
carro-autonomo-134131/. Acesso em: 19 abr. 2020.
107
necessidade. Noutro norte, havendo outros transeuntes, a situação assume feição diversa e,
nesse caso, não se torna exigível que o veículo desvie.
Em comentário ao Código Português, argumenta-se que, na responsabilidade pela coisa,
é possível compará-la com a custódia de animais:
Para administrar este risco intrínseco aos robôs autônomos, propõe-se a criação de
um novo tipo de responsabilidade objetiva, próxima, por exemplo, da adotada hoje
em relação aos danos causados por animais (art. 502º). Com base nas discussões
atinentes ao Item 3.7, parece legítimo postular que, quem se serve de robôs, como
ocorre no caso dos animais, deve arcar com as consequências lesivas do risco
imbricado em sua utilização309.
A preocupação com o status jurídico dos animais não é recente e já levanta discussões
acerca da natureza jurídica de tais entes. O Projeto de Lei nº 27/2018 visa determinar que os
animais não humanos possuam natureza jurídica sui generis e sejam considerados sujeitos de
direitos não personificados, podendo obter tutela jurisdicional na hipótese de violação, sendo
vedado o seu tratamento como coisa. Nesse trilhar, ganha força a proposta de personalidade
eletrônica, pois, não obstante os robôs não possuam a mesma sensibilidade ou senciência dos
animais, há fundamentos que justificariam tal tratamento, tais como a relativa autonomia na
tomada de decisões.
Em continuidade, ressalte-se que a responsabilidade pelo dever de vigilância recai sobre
aquele que possui a detenção do objeto, seja proprietário, comodatário, depositário, credor ou
pignoratício, sendo imprescindível observar no caso concreto o princípio da boa-fé objetiva e
da cooperação que permeia as relações. Não se ignora que a delimitação de meios de
vigilância não se afigura tão simples, especialmente num contexto de complexidades
tecnológicas.
Em análise da legislação portuguesa, Uly de Carvalho argumenta que
(...) na problemática dos robôs seria preciso demonstrar que o detentor da máquina –
ora entendido sob a natureza de coisa – tinha o dever de vigiá-la, que existiu culpa
pelos danos a que deu causa e que tais danos não teriam ocorrido se o detentor
houvesse cumprido as providências de vigilância a que estava obrigado. Aqui, o
ponto nevrálgico, envolve a existência de um dever de vigilância do robô e,
correlativamente, de determinar sobre quem recai na prática a sua extensão e a sua
exequibilidade310.
309
PORTO, Uly de Carvalho Rocha. A responsabilidade civil extracontratual por danos causados por robôs
autônomos. 2018. Dissertação (Mestrado em Ciências Jurídico-Civilistas), Faculdade de Direito da
Universidade de Coimbra, Coimbra, 128 p., p. 106.
310
PORTO, Uly de Carvalho Rocha. A responsabilidade civil extracontratual por danos causados por robôs
autônomos. 2018. Dissertação (Mestrado em Ciências Jurídico-Civilistas), Faculdade de Direito da
Universidade de Coimbra, Coimbra, 128 p., p. 58.
108
311
TEPEDINO, Gustavo. SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de
responsabilidade civil. Revista Brasileira de Direito Civil. Belo Horizonte, V. 21, p. 61-86, jul./set. 2019, p. 22.
312
“Finalmente, a terceira, B2b (Business to business), com a inicial maiúscula na grafia do primeiro elemento, e
minúscula na do segundo, é a sigla cunhada pela doutrina italiana para descrever a relação assimétrica na qual o
empresário detentor de maior poder seria representado pelo “B” (maiúsculo) e o mais vulnerável seria
representado pelo “b” (minúsculo); o segundo é designado de imprenditore debole, ou seja, o comerciante mais
fraco na relação comercial entabulada”. FALEIROS JÚNIOR, José Luiz de Moura. Startups e
empreendedorismo de base tecnológica: perspectivas e desafios para o Direito Societário Brasileiro. In:
EHRHARDT JÚNIOR, Marcos; CATALAN, Marcos; MALHEIROS, Pablo (Coord.). Direito Civil e
Tecnologia. Belo Horizonte: Fórum, 2020. 754p., p. 541.
109
mesmo a inversão do ônus da prova, com fulcro na teoria dinâmica disposta no art. 373, § 1º,
do Código de Processo Civil313 e na culpa presumida.
Conforme Geraldo Frazão de Aquino Júnior:
313
Art. 373. O ônus da prova incumbe: I - ao autor, quanto ao fato constitutivo de seu direito; II - ao réu, quanto
à existência de fato impeditivo, modificativo ou extintivo do direito do autor. § 1º Nos casos previstos em lei ou
diante de peculiaridades da causa relacionadas à impossibilidade ou à excessiva dificuldade de cumprir o
encargo nos termos do caput ou à maior facilidade de obtenção da prova do fato contrário, poderá o juiz atribuir
o ônus da prova de modo diverso, desde que o faça por decisão fundamentada, caso em que deverá dar à parte a
oportunidade de se desincumbir do ônus que lhe foi atribuído.
314
AQUINO JÚNIOR, Geraldo Frazão de. Responsabilidade civil dos provedores de internet. In: EHRHARDT
JÚNIOR, Marcos. LÔBO, Fabíola Albuquerque. (Coord.). Privacidade e sua compreensão no Direito
Brasileiro. Belo Horizonte: Fórum, 2019, p. 112.
315
“Liability without fault is based on the theory of risk. The theory is based on the fact that a person carries out
activities that he or she cannot fully control; therefore, a requirement to comply with the safety regulations
would not be reasonable, because even if the person acted safely, the actual risk of damage would still remain. In
this case, it would be useful to employ the ‘deep pocket’ theory which is common in the U.S. The ‘deep pocket’
theory is that a person engaged in dangerous activities that are profitable and useful to society should
compensate for damage caused to the society from the profit gained. Whether the producer or programmer, the
person with a ‘deep pocket’ must guarantee his hazardous activities through the requirement of a compulsory
insurance of his civil liability”. CERKA, Paulius; GRIGIENE, Jurgita; SIRBIKYTE, Gintare. Liability for
damages caused by artificial intelligence. Computer Law and Security Review. United Kingdom, v. 31, p. 386.
110
digital, onde muitos dos efeitos e potencialidades das novas tecnologias são desconhecidos.
Ainda nesse contexto, questiona-se se há o dever de indenizar quando ocorrer o chamado
fenômeno Google Bomb, situação em que terceiros manipulam o algoritmo para influenciar a
classificação de uma página ou sítio eletrônico nos resultados apresentados pelo Google,
usualmente com intuitos satíricos ou humorísticos.
A cantora brasileira Preta Gil, por exemplo, cogitou ajuizar ação indenizatória contra o
Google em razão de o provedor de buscas sugerir seu nome quando eram feitas pesquisas por
“atriz gorda”316. Em casos típicos de Google Bomb, o ponto fulcral passa por definir se os
ataques de terceiros caracterizam fortuitos internos que não afastam o dever de indenizar ou
se não estão inseridos na noção de risco assumido pelo provedor de buscas, o que excluiria
sua responsabilidade.
316
FOLHA DE SÃO PAULO. Preta Gil aciona advogado por suposta ofensa do Google. Disponível em:
https://www1.folha.uol.com.br/tec/2008/02/372699-preta-gil-aciona-advogado-por-suposta-ofensa-do-
google.shtml. Acesso em: 11 ago. 2020.
317
GUTIERREZ, Andriei. É possível confiar em um sistema de inteligência artificial? Práticas em torno da
melhoria da sua confiança, segurança e evidências e accountability. In: FRAZÃO, Ana. MULHOLLAND,
Caitlin. Inteligência artificial e Direito: Ética, Regulação e Responsabilidade. São Paulo: Thomson Reuters
Brasil, 2019, p. 85.
318
A partir da proposta de responsabilização proativa, impende noticiar, apenas a título reflexivo, a discussão
contemporânea acerca da responsabilidade civil sem dano, resultante da imputação legal de deveres para
prevenção de danos, ou em razão de posições jurídicas assumidas pelo agente. Trata-se de ressignificação dos
cânones clássicos da responsabilidade civil, em que se questiona a imprescindibilidade do dano para a incidência
da responsabilização. A autora não chega a aprofundar a discussão acerca da responsabilização proativa como
um regime jurídico autônomo ou como uma modalidade de responsabilidade sem dano, debate que assume
relevância nesse panorama, mas que não é objeto do corte epistemológico da presente dissertação.
112
Nesse cenário, ressurge o papel da ponderação, que deve sopesar os interesses jurídicos
em questão. O conflito a ser sopesado consubstancia-se a partir da solidariedade social ‒ que
alicerça a teoria do risco e o direito de reparação das vítimas ‒ em face do dever estatal de
promoção e incentivo ao desenvolvimento tecnológico, a demandar que a responsabilização
observe parâmetros seguros e razoáveis, sob pena de chancelar uma concentração exacerbada
de responsabilidade e inviabilizar o desenvolvimento empresarial.
319
MORAES, Maria Celina Bodin de. LGPD: um novo regime de responsabilização dito ”proativo”. Civilística.
A. 8, n. 3, 2019. Disponível em: http://civilistica.com/lgpd-um-novo-regime-de-responsabilizacao-civil-dito-
proativo/. Acesso em: 25 mai. 2020.
113
prejuízo sem ter contribuído para sua ocorrência, como aqueles derivados do risco do
desenvolvimento.
Nos termos de Joyceane Bezerra, José Coelho e Maria Clara Bugarim, o dano é injusto
quando decorre de atividade lícita, mas fere aspectos fundamentais da dignidade humana320.
Não se desconsidera a possibilidade de emergência de danos oriundos de atos tipicamente
ilícitos. Ainda, são plenamente indenizáveis os danos patrimoniais e extrapatrimoniais, em
observância à disposição do art. 5º321 da Constituição Federal, incisos V e X.
O parágrafo único do art. 944 do Código Civil dispõe que se houver excessiva
desproporção entre a gravidade da culpa e do dano, poderá o juiz reduzir, equitativamente, a
indenização. Tendo em vista a conduta e o porte econômico-social das partes no caso concreto
e considerando a responsabilidade proativa que se espera daqueles que desenvolvem a
inteligência artificial, é possível, em circunstâncias excepcionalíssimas, mitigar a indenização,
sem olvidar, por óbvio, a lógica da razoabilidade e os valores existenciais sufragados na
Constituição da República. A disposição legal parte do pressuposto de que a reparação
integral do dano pode, no caso concreto, excepcionalmente e em face de peculiaridades, sofrer
mitigações.
320
MENEZES, Joyceane Bezerra de; COELHO, José Martônio Alves; BUGARIM, Maria Clara Cavalcante. A
expansão da responsabilidade civil na sociedade de riscos. Scientia Iuris: Londrina, v. 15, n. 1, p. 29-50, jun.
2011, p. 42.
321
Art. 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e aos
estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes:
V- é assegurado o direito de resposta, proporcional ao agravo, além da indenização por dano material, moral ou à
imagem;
X- são invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas, assegurado o direito a
indenização pelo dano material ou moral decorrente de sua violação.
322
Art. 402: Salvo as exceções expressamente previstas em lei, as perdas e danos devidas ao credor abrangem,
além do que ele efetivamente perdeu, o que razoavelmente deixou de lucrar.
323
Art. 944: A indenização mede-se pela extensão do dano.
114
Em relação aos atos lícitos, tais como os danos oriundos de atividade extraordinária da
máquina inteligente cuja imprevisibilidade fora devidamente advertida ou riscos de
desenvolvimento, a indenização deve observar uma proporcionalidade com os danos
suportados pelo corpo social. Isso porque o ato observa todas as formalidades e fundamentos
constitucionais que o embasam, de modo que a anormalidade e a especialidade do dano,
embora ensejem a indenização, não podem servir como fresta ao enriquecimento de um
agente em detrimento de todos os outros indivíduos. A indenização deve se limitar, portanto,
a assegurar uma equidade entre os agentes sociais, de modo que todos suportem o ônus de
modo equiparado, afastando sacrifícios de direitos. Trata-se de redistribuição de encargos, de
modo a não sacrificar interesses extremamente individualizados.
Não se trata, assim, de recompor de modo absoluto o estado jurídico do agente como se
encontrava antes do ato, porém de indenizar de modo que o prejuízo suportado seja
proporcional e equânime com aquele que se espera de todos os agentes sociais, evitando, por
conseguinte, oneração ou privilégios injustificados. Se o dano foi provocado por uma série de
causas, todas devem ser consideradas proporcionalmente para a quantificação da indenização.
No que tange aos novos influxos no nexo de causalidade com a responsabilidade civil,
em comentário ao ordenamento jurídico português, assim escreve Henrique Sousa Antunes:
324
Art. 945. Se a vítima tiver concorrido culposamente para o evento danoso, a sua indenização será fixada
tendo-se em conta a gravidade de sua culpa em confronto com a do autor do dano.
115
A teoria da causa necessária tem sido utilizada para a reparação de danos muito
antes da disseminação da inteligência artificial, diante de numerosos problemas
relacionados ao fenômeno da pluralidade de causas. Ilustrativamente, hipóteses de
variados agentes responsáveis por uma pluralidade de sistemas autônomos poderão
ser estudadas à luz da doutrina que se ocupa do fenômeno da pluralidade de
concausas; os impactos da atuação de hackers poderão ser investigados com base
nas lições consolidadas sobre causas excludentes de responsabilidade; até mesmo os
bugs e interferências no funcionamento dos robôs – caso excluída a discussão da
imprevisibilidade do espectro do dano indenizável – poderão ser investigados sob o
enfoque dos ensinamentos gerais sobre interrupção do nexo causal327.
325
ANTUNES, Henrique Sousa. Inteligência artificial e responsabilidade civil: enquadramento. Revista de
Direito da Responsabilidade. Ano 1, 2019, p. 140.
326
TEPEDINO, Gustavo. SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de
responsabilidade civil. Revista Brasileira de Direito Civil. Belo Horizonte, V. 21, p. 61-86, jul./set. 2019, p. 17.
327
TEPEDINO, Gustavo. SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de
responsabilidade civil. Revista Brasileira de Direito Civil. Belo Horizonte, V. 21, p. 61-86, jul./set. 2019, p. 18.
328
SILVA, Nuno Sousa e. Direito e Robótica: uma primeira aproximação. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2990713. Acesso em: 16 jul. 2019, p. 23.
116
Ainda quanto ao nexo de causalidade, este restará configurado quando o fornecedor não
advertir o consumidor acerca da limitação de conhecimento sobre as potencialidades do
sistema de inteligência artificial, em evidente descumprimento ao dever de informação e de
boa-fé objetiva.
329
MENEZES, Joyceane Bezerra de; COELHO, José Martônio Alves; BUGARIM, Maria Clara Cavalcante. A
expansão da responsabilidade civil na sociedade de riscos. Scientia Iuris: Londrina, v. 15, n. 1, p. 29-50, jun.
2011, p. 43.
117
330
PORTO, Uly de Carvalho Rocha. A responsabilidade civil extracontratual por danos causados por robôs
autônomos. 2018. Dissertação (Mestrado em Ciências Jurídico-Civilistas), Faculdade de Direito da
Universidade de Coimbra, Coimbra, 128 p., p. 60.
331
”It is the manufacturer who bears front line responsibility for design and manufacturing defects, and is
generally the principal if not the only defendant in litigation. That allocation of responsibility makes sense,
because the manufacturer sets the price for the vehicle, and so the manufacturer can build in an “insurance
premium” into the vehicle’s sale price to offset expected liability costs.” VLADECK, David C. Machines
without principals: liability rules and artificial intelligence. Washington Law Review. Vol. 89, p. 117-150,
2019, p. 148. Disponível em: http://euro.ecom.cmu.edu/program/law/08-732/AI/Vladeck.pdf. Acesso em: 14 abr.
2020.
118
faz sentido fornecer incentivos para os fabricantes dos componentes de carros sem
motorista continuarem inovando e melhorando seus produtos, isolando-os da divisão
de custos, mesmo nesse tipo, de incidentes pontuais, parece problemático.
Obviamente, o contra-argumento seria que, de acordo com a lei atual, é improvável
que as partes lesadas tenham alguma reclamação contra os produtores de
componentes, e o fabricante quase certamente não poderia intentar uma ação de
contribuição ou indenização contra um fabricante de componentes sem evidência de
que um defeito de projeto ou fabricação no componente estava com defeito.
Portanto, a menos que os tribunais tratem dessa questão ao estabelecer um regime
objetivo de responsabilidade, é provável que o fabricante e apenas o fabricante arque
com toda a responsabilidade. (Tradução livre)332.
Essa dificuldade, no entanto, parece ser um atributo do risco do negócio daquele que
resolve empreender no ramo, não possuindo o condão de afastar o regime de responsabilidade
objetiva que visa privilegiar a tutela da vítima. Desse modo, tem-se que o fornecedor é
responsável pelos defeitos da máquina e, ainda, pelos resultados adversos que não eram
expressamente previstos no momento da circulação do objeto, com fundamento no risco da
circulação do produto ou serviço.
332
“There are at least two concerns about making the manufacturer shoulder the costs alone. One is that with
driver-less cars, it may be that the most technologically complex parts ‒ the automated driving systems, the radar
and laser sensors that guide them, and the computers that make the decisions ‒ are prone to undetectable failure.
But those components may not be made by the manufacturer. From a cost-spreading standpoint, it is far from
clear that the manufacturer should absorb the costs when parts and computer code supplied by other companies
may be the root cause. Second, to the extent that it makes sense to provide incentives for the producers of the
components of driver-less cars to continue to innovate and improve their products, insulating them from cost-
sharing even in these kind, of one-off incidents seems problematic. The counterargument would of course be that
under current law the injured parties are unlikely to have any claim against the component producers, and the
manufacturer almost certainly could not bring an action for contribution or indemnity against a component
manufacturer without evidence that a design or manufacturing defect in the component was at fault.93 So unless
the courts address this issue in fashioning a strict liability regime, the manufacturer, and the manufacturer alone,
is likely to bear all of the liability.” VLADECK, David C. Machines without principals: liability rules and
artificial intelligence. Washington Law Review. Vol. 89, p. 117-150, 2019, p. 148. Disponível em:
http://euro.ecom.cmu.edu/program/law/08-732/AI/Vladeck.pdf. Acesso em: 14 abr. 2020.
119
333
Em sentido análogo, Marcos Ehrhardt Júnior e Paula Falcão Albuquerque argumentam que o não
comparecimento injustificado do consumidor ao chamado de recall demonstra a aceitação da utilização do
produto com os riscos que o acompanham. Desse modo, ao esquivar-se, conscientemente, de adotar uma conduta
apta a prevenir danos, o consumidor assumiria os riscos noticiados pelo fornecedor quando da convocação para
análise e reparo do produto inadequadamente posto no mercado. Em contraponto, o Superior Tribunal de Justiça,
no julgamento do REsp nº 1261067/RJ, aduziu que o não atendimento do recall não afasta a responsabilidade do
fornecedor. EHRHARDT JÚNIOR, Marcos. ALBUQUERQUE, Paula Falcão. Quais as consequências do não
atendimento do recall pelo consumidor? Revista de Direito do Consumidor, vol. 113/2017, p. 185 – 212, Set.-
Out. 2017.
334
“Um mesmo fato danoso pode, em situações particulares, ser qualificado como não cumprimento do contrato
e, ao mesmo tempo, como fato ilícito extranegocial. Há uma zona comum entre os dois campos. Não se trata
propriamente uma cumulação de responsabilidades, mas de uma faculdade que para alguns ensejaria uma
possibilidade de escolha. Unificar os regimes, dentro da perspectiva da operabilidade, significaria uma
simplificação do tratamento atualmente conferido à matéria. Situar a questão sob esse prisma significa, em
última instância, uma tentativa de separar o não cumprimento da obrigação da noção de culpa, colocando o
120
Quanto aos deveres que podem ser imputados aos fornecedores, apesar de os
desenvolvedores também enfrentarem dificuldades na avaliação de riscos associados à
imprevisibilidade da IA, ainda são eles os agentes mais bem situados para incorporar
tecnologias de monitoramento que possam sinalizar e informar qualquer parte interessada
quando algo sair do controle, ou até mesmo recursos de desligamento de emergência.
O desafio aqui é implementar ferramentas de monitoramento que não prejudiquem o
objetivo básico da IA e tampouco violem os direitos de privacidade dos usuários. O mérito na
implementação dessas ferramentas reside em seu potencial para evitar a ocorrência de danos
e, até mesmo, para avaliar uma eventual negligência contributiva da vítima.
Conforme Marcos Catalan:
343
CATALAN, Marcos. O desenvolvimento nanotecnológico e o dever de reparar os danos ignorados pelo
processo produtivo. Revista de Direito do Consumidor. São Paulo, n. 74, p. 113-147, abr./jun. 2010, p. 139.
344
TEPEDINO, Gustavo. SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de
responsabilidade civil. Revista Brasileira de Direito Civil. Belo Horizonte, V. 21, p. 61-86, jul./set. 2019, p. 11.
122
todos os problemas em sua extensão. Tal constatação, contudo, não implica a inexorável
conclusão de que se devem revolucionar todos os cânones da responsabilidade, porquanto a
axiologia constitucional apresenta pilares de aplicabilidade, interpretação e integração em tais
casos e a velocidade das alterações legislativas não se mostra apta a alcançar as modificações
hodiernas.
De fato, é necessário repensar as categorias clássicas e adaptá-las ao contexto
contemporâneo e ao paradigma de riscos. Isso não significa um abandono, mas uma
acomodação aos cânones da legalidade constitucional. Nesse ponto, a função social da
responsabilidade civil se firma, cada vez mais, como um instrumento apaziguador de
conflitos, visando à manutenção do equilíbrio social, notadamente nas funções preventivas,
protetivas e restaurativas.
123
6 CONSIDERAÇÕES FINAIS
A inteligência artificial pode ser compreendida como um sistema que, alimentado com
dados, demonstra capacidade de reprodução cognitiva cujo acúmulo de aprendizado simula a
experiência mental humana. A presença massiva e cada vez mais autônoma de tais sistemas
acarreta para o ordenamento jurídico uma série de desafios, especialmente no que tocante à
verificação de defeitos e da (im)previsibilidade do dano.
cooperação e a confiança dos usuários nos sistemas. Tais diretrizes se consubstanciam como
efetivos pilares que auxiliam o julgador na análise da incidência da violação apta a ensejar o
dever de indenização, bem como no direcionamento de boas práticas que garantam uma
tecnologia segura.
Cumpre destacar que o art. 927, parágrafo único, do Código Civil, quando atrai a
responsabilidade objetiva, não exige que a atividade seja perigosa, mas, tão somente,
arriscada. Assim, é possível inferir que o reconhecimento de que não há pleno conhecimento
125
REFERÊNCIAS BIBLIOGRÁFICAS
ABOTT, Ryan. The Reasonable Computer: Disrupting the Paradigm of Tort Liability. The
George Washington Law Review. Washington, Vol. 86, n. 1, 2018.
ALVIM, Eduardo Arruda. Responsabilidade civil pelo fato do produto no Código de Defesa
do Consumidor. Revista de Direito do Consumidor 15/148. São Paulo: Editora Revista dos
Tribunais, jul./set. 1995, p. 132/151.
BAPTISTA, Patrícia. KELLER, Clara Iglesias. Por que, quando e como regular as novas
tecnologias? Os desafios trazidos pelas inovações disruptivas. Revista de Direito
Administrativo. Rio de Janeiro, v. 273, p. 123-163, set./dez. 2016.
CANAL TECH. Justiça retira ação criminal contra UBER por atropelamento com carro
autônomo. Disponível em: https://canaltech.com.br/carros/justica-retira-acao-criminal-
contra-uber-por-atropelamento-com-carro-autonomo-134131/. Acesso em: 19 abr. 2020.
CASTRO JÚNIOR, Marco Aurélio de. Personalidade jurídica do Robô e sua efetividade
no Direito. (Tese). Doutorado em Direito. Programa de Pós-Graduação em Direito da
Faculdade de Direito da Universidade Federal da Bahia, Salvador, 2009.
CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 9. ed. São Paulo: Atlas,
2010.
130
CERKA, Paulius; GRIGIENE, Jurgita; SIRBIKYTE, Gintare. Liability for damages caused
by artificial intelligence. Computer Law and Security Review. United Kingdom, v. 31, p.
380.
COCHRANE BRASIL. Ainda não se conhecem os efeitos dos medicamentos para esclerose
múltipla no longo prazo. Disponível em: https://brazil.cochrane.org/news/ainda-n%C3%A3o-
se-conhecem-os-efeitos-dos-medicamentos-para-esclerose-m%C3%BAltipla-no-longo-prazo.
Acesso em: 31 dez. 2019.
CONJUR. STJ cria sistema de inteligência artificial para agilizar processos. Disponível
em: https://www.conjur.com.br/2018-jun-14/stj-cria-sistema-inteligencia-artificial-agilizar-
processos Acesso em: 3 jun. 2020.
DIOP, Lamine. CUPE, Jean. Explainable AI: The data scientist’s new challenge.
Disponível em: https://towardsdatascience.com/explainable-ai-the-data-scientists-new-
challenge-f7cac935a5b4. Acesso em: 19 nov. 2019.
DONEDA, Danilo Cesar Maganhoto; MENDES, Laura Schertel; SOUZA, Carlos Affonso
Pereira de; ANDRADE, Norberto Nuno Gomes de. Considerações iniciais sobre inteligência
artificial, ética e autonomia pessoal. Pensar. Fortaleza, v. 23, n. 4, p. 1-17, out./dez. 2018.
DR. BARAKAT. Transgênicos: como podem impactar à saúde e causar danos ao meio
ambiente. Disponível em: https://www.brasildefato.com.br/node/12318/. Acesso em: 31 dez.
2019.
131
EHRHARDT JÚNIOR, Marcos. Direito Civil: LINDB e Parte Geral. 2. ed. Salvador:
Editora Juspodivm, 2011.
FARIAS, Cristiano Chaves; ROSENVALD, Nelson; NETTO, Felipe Peixoto Braga. Curso
de Direito Civil: Responsabilidade Civil. 3. ed. São Paulo: Atlas, 2016.
FELIPE, Bruno Farage da Costa. Direito dos robôs, tomadas de decisões e escolhas morais:
algumas considerações acerca da necessidade de regulamentação ética e jurídica da
inteligência artificial. Revista Juris Poiesis. Rio de Janeiro: vol. 20, n. 22, p. 150-169, 2017.
FOLHA DE SÃO PAULO. Preta Gil aciona advogado por suposta ofensa do Google.
Disponível em: https://www1.folha.uol.com.br/tec/2008/02/372699-preta-gil-aciona-
advogado-por-suposta-ofensa-do-google.shtml. Acesso em: 11 ago. 2020.
132
FRAZÃO, Ana. Risco da empresa e caso fortuito externo. Civilística. Rio de Janeiro, a. 5. n.
1. 2016, p. 1-27, p. 2. Disponível em:
https://civilistica.emnuvens.com.br/redc/article/view/239/197 Acesso em: 10 set. 2020.
FRAZÃO, Ana; TEPEDINO, Gustavo; OLIVA, Milena Donato. A Lei Geral de Proteção de
Dados Pessoais e suas repercussões no Direito brasileiro. São Paulo: Thomson Reuters
Brasil, 2019, p. 704.
G1. Como as robôs Alice, Sofia e Mônica ajudam o TCU a caçar irregularidades em
licitações. Disponível em: https://g1.globo.com/economia/tecnologia/noticia/como-as-robos-
alice-sofia-e-monica-ajudam-o-tcu-a-cacar-irregularidades-em-licitacoes.ghtml. Acesso em: 4
jul. 2019.
G1. Robô agarra e mata trabalhador dentro de fábrica da Volkswagen. Disponível em:
http://g1.globo.com/mundo/noticia/2015/07/robo-agarra-e-mata-trabalhador-dentro-de-
fabrica-da-volkswagen.html. Acesso em: 26 set. 2019.
G1. Robôs poderão ajudar população de idosos no Japão no futuro. Disponível em:
http://g1.globo.com/tecnologia/noticia/2011/10/robos-poderao-ajudar-populacao-de-idosos-
no-japao-no-futuro.html Acesso em: 20 set. 2018.
HALLEVY, Gabriel. The criminal liability of artificial intelligence entities- from Science
fiction to legal social control. Akron Intellectual Property Journal. Ohio, vol. 4, p. 171-
199, 2016.
HENDERSON, Harry. Artificial intelligence: mirrors for the mind. New York: Chelsea
House Publishers, 2007.
HINGELDORF, Eric. SEIDEL, Uwe. Robotics, Autonomics and the Law. Vol. 14, Baden-
Baden: Nomos, 2014.
ITS Rio 2016. Big Data in the Global South Project Report on the Brazilian Case
Studies. Disponível em: https://itsrio.org/wp-content/uploads/2017/01/Big-Data-in-the-
Global-South-Project.pdf. Acesso em: 3 nov. 2019.
KAPLAN, Jerry. Artificial Intelligence: What everyone needs to know. Oxford: Oxford
University Press, 2016.
KNIGHT, Will. The dark secret at the heart of AI. Disponível em:
https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/ Acesso em:
26 set. 2019.
LÔBO, Paulo Luiz Netto. A informação como direito fundamental do consumidor. Revista
de Direito do Consumidor. São Paulo: Revista dos Tribunais, n. 37, p. 59-76, 2001.
MAGRANI, Eduardo. A internet das coisas. Rio de Janeiro: FGV Editora, 2018.
MARSHALL, Carla Izolda Fiúza Costa. Responsabilidade civil do fabricante por produto
defeituoso na União Europeia e no Brasil. Revista de Administração Pública, Rio de
Janeiro, v. 32, n. 3, p. 249 a 255, mar. 1998. ISSN 1982-3134. Disponível em:
<http://bibliotecadigital.fgv.br/ojs/index.php/rap/article/view/7744>. Acesso em: 1 jan. 2020.
MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da eficácia, 1. parte. 8. ed.
São Paulo: Saraiva, 2013.
MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da existência. 17. ed. São
Paulo: Saraiva, 2014.
MENEZES, Joyceane Bezerra de; COELHO, José Martônio Alves; BUGARIM, Maria Clara
Cavalcante. A expansão da responsabilidade civil na sociedade de riscos. Scientia Iuris:
Londrina, v. 15, n. 1, p. 29-50, jun. 2011.
MICROSOFT. How Microsoft computer scientists and researchers are working to ‘solve‘
cancer. Disponível em: https://news.microsoft.com/stories/computingcancer/. Acesso em: 19
set. 2019.
MIGALHAS. Instituto pede que Facebook seja condenado em 150 milhões. Disponível
em: https://www.migalhas.com.br/Quentes/17,MI302322,71043-
Instituto+pede+que+Facebook+seja+condenado+em+R+150+milhoes+por. Acesso em: 13
mai. 2019.
MIRAGEM, Bruno. MARQUES, Cláudia Lima. OLIVEIRA, Amanda Flávio de. 25 anos de
Código de Defesa do Consumidor: trajetória e perspectivas. São Paulo: Revista dos
Tribunais, 2016.
MIRAGEM, Bruno. Curso de Direito do Consumidor. 6. ed. rev., atual e ampl. São Paulo:
Revista dos Tribunais, 2016.
MIRANDA, Pontes de. Tratado de Direito Privado. Parte Geral, Tomo I. 4. ed. São Paulo:
Revista dos Tribunais, 1974.
MIT TECHNOLOGY REVIEW. Here’s how social media can combat the coronavirus
‘infodemic’. Disponível em: https://www.technologyreview.com/s/615368/facebook-twitter-
social-media-infodemic-misinformation/. Acesso em: 1 abr. 2020.
MIT TECHNOLOGY REVIEW. Here’s how social media can combat the coronavirus
‘infodemic’.
MONTEIRO, Washington de Barros. Curso de Direito Civil. Vol. 1, São Paulo: Saraiva,
1976.
MORAES, Maria Celina Bodin de. A constitucionalização do direito civil e seus efeitos sobre
a responsabilidade civil. Direito, Estado e Sociedade. Rio de Janeiro, n. 29, p. 233-258,
2006.
MORAES, Maria Celina Bodin de. LGPD: um novo regime de responsabilização dito
”proativo”. Civilística. A. 8, n. 3, 2019. Disponível em: http://civilistica.com/lgpd-um-novo-
regime-de-responsabilizacao-civil-dito-proativo/. Acesso em: 28 mar. 2020.
MORE, César E. Moreno. Estudios sobre la responsabilidad civil. Lima: Ediciones legales,
2015, p. 136.
NUNES, Dierle. MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e Direito
Processual: Vieses algorítmicos e os riscos de atribuição de função decisória às máquinas.
Revista de Processo. Vol. 285, p. 421-447, nov. 2018.
OLIVEIRA, Carlos Eduardo Elias de; LEAL, Túlio Augusto Castelo Branco. Considerações
sobre os veículos autônomos: possíveis impactos econômicos, urbanos e das relações
jurídicas. Brasília: Núcleo de Estudos e Pesquisas/CONLEG/Senado, Outubro/2016 (Texto
para discussão nº 214). Disponível em: www.senado.leg.br/estudos. Acesso em: 20 jan. 2020.
OLIVEIRA, Samuel Rodrigues De; COSTA, Ramon Silva. Pode a máquina julgar?
Considerações sobre o uso de inteligência artificial no processo de decisão judicial. Revista
de Argumentação e Hermenêutica Jurídica. Porto Alegre, v. 4, n. 2, p. 21-39, jul./dez
2018.
PARIS INOVATION REVIEW. Predictive justice: when algorithms pervade the law.
Disponível em: http://parisinnovationreview.com/articles-en/predictive-justice-when-
algorithms-pervade-the-law. Acesso em: 28 mar. 2020.
PINHEIRO, Patricia Peck. Direito Digital. 6. ed. rev., atual. e ampl. São Paulo: Saraiva,
2016.
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos
atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento
Europeu. Revista Brasileira de Políticas Públicas: v. 7, n. 3, dez. 2017.
137
POLITIFACT. African-Americans don't use drugs at a higher level than whites but
"wind up going to prison six times more. Disponível em:
https://www.politifact.com/punditfact/statements/2016/jul/13/van-jones/van-jones-claim-
drug-use-imprisonment-rates-blacks/ Acesso em: 14 mai. 2019.
R7. Mulher alemã pode ser a primeira vítima fatal de um ciberataque. Disponível em:
https://noticias.r7.com/tecnologia-e-ciencia/fotos/mulher-alema-pode-ser-a-primeira-vitima-
fatal-de-um-ciberataque-20092020#!/foto/10. Acesso em: 1 out. 2020.
REUTERS. Coronavirus brings China's surveillance state out of the shadows. Disponível
em: https://www.reuters.com/article/us-china-health-surveillance/coronavirus-brings-chinas-
surveillance-state-out-of-the-shadows-idUSKBN2011HO. Acesso em: 22 mar. 2020.
RICHARDS, Neil M.; SMART, William D. How should the law think about robots?
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2263363. Acesso em: 1
out. 2018.
SARIPAN, Hartini; PUTERA, Nurus Sakinatul Fikriah Moh Shith. Are robots humans? A
review of the legal personality model. World applied sciences journal. Malaysia, Faculty of
Law, University Teknology MARA, n. 34, p. 824-831, 2016.
SILVA, Marco Aurélio Lopes Ferreira de. Responsabilidade pelo risco do desenvolvimento.
Revista da Faculdade de Direito de Campos. nº 8, Campos dos Goytacazes, jan./jun. 2006.
SILVA, Nuno Sousa e. Direito e Robótica: uma primeira aproximação. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2990713. Acesso em: 16 jul. 2019.
SIMÃO, José Fernando. Direito dos Animais: Natureza Jurídica. A visão do Direito Civil.
Revista Jurídica Luso-Brasileira. Nº 4, Ano 3, 2017, p. 897-911.
SOLUM, Lawrence B. Legal Personhood for Artificial Intelligences. North Carolina Law
Review. Vol. 7, n. 4, 1992.
SOUTH CHINA MORNING POST. Coronavirus: AI firms deploy fever detection systems
in Beijing to fight outbreak. Disponível em:
https://www.scmp.com/tech/policy/article/3049215/ai-firms-deploy-fever-detection-systems-
beijing-help-fight-coronavirus. Acesso em: 22 mar. 2020.
TEGMARK, Max. Life 3.0. Being human in the age of artificial intelligence. New York:
Alfred A. Knopf, 2017.
TERRA. Papada, insônia e acne: veja danos que o uso de celular pode causar. Disponível
em: https://www.terra.com.br/vida-e-estilo/saude/bem-estar/papada-insonia-e-acne-veja-
danos-que-o-uso-de-celular-pode-
causar,518ab3680b600410VgnVCM10000098cceb0aRCRD.html Acesso em: 31 dez. 2019.
TEUBNER, Gunther. Rights of non-humans? Electronics agents and animals as new actors in
politics and law. Max Weber Lecture Series MWP 2007/4. European University Institute: n.
4, 2007.
THE GUARDIAN. Robot fails to find a place in the sun. Disponível em:
https://www.theguardian.com/uk/2002/jun/20/engineering.highereducation Acesso em: 19
nov. 2019.
THE NEW YORK TIMES. In Coronavirus Fight, China Gives Citizens a Color Code,
With Red Flags. Disponível em: https://www.nytimes.com/2020/03/01/business/china-
coronavirus-surveillance.html. Acesso em: 22 mar. 2020.
THE NEW YORK TIMES. Knight Capital Says Trading Glitch Cost It $440 Million.
Disponível em: https://dealbook.nytimes.com/2012/08/02/knight-capital-says-trading-mishap-
cost-it-440-million/?hp] Acesso em: 19 nov. 2019.
THE NEW YORK TIMES. Sent to prison by a software programs secret algorithms.
Disponível em: https://www.nytimes.com/2017/05/01/us/politics/sent-to-prison-by-a-
software-programs-secret-algorithms.html?_r=0. Acesso em: 28 mar. 2020.
UOL. Shopping suspende uso de robôs de segurança após acidente com criança.
https://gizmodo.uol.com.br/shopping-robos-acidente-crianca/ Acesso em: 19 nov. 2019.
USA. Supreme Court of Wisconsin. Case n.: 2015AP157-CR. State of Wisconsin, Plaintiff-
Respondent, v. Eric L. Loomis, Defendant-Appellant. OPINION FILED: July 13, 2016
SUBMITTED ON BRIEFS: ORAL ARGUMENT: April 5, 2016. Disponível em:
https://www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690.
Acesso em: 2 abr. 2020.
140
VLADECK, David C. Machines without principals: liability rules and artificial intelligence.
Washington Law Review. Vol. 89, p. 117-150, 2019, p. 148. Disponível em:
http://euro.ecom.cmu.edu/program/law/08-732/AI/Vladeck.pdf. Acesso em: 14 abr. 2020.
UOL. Técnicas de vigilância como identificação fácil ainda são falhas. Disponível em:
https://www.uol.com.br/tilt/noticias/redacao/2019/05/27/tecnicas-de-vigilancia-como-
identificacao-facial-ainda-sao-falhas.htm. Acesso em: 20 mar. 2020.
VEJA. Exposto à internet, robô da Microsoft vira racista em um dia. Disponível em:
https://veja.abril.com.br/tecnologia/exposto-a-internet-robo-da-microsoft-vira-racista-em-1-
dia/. Acesso em: 29 mai. 2020.
WIRED. AI epidemiologist Wuhan public health warnings. Disponível em: Disponível em:
https://www.wired.com/story/ai-epidemiologist-wuhan-public-health-warnings/. Acesso em:
22 mar. 2020.
The precautionary principle plays a critical role in managing AI-related risks in civil liability by encouraging preventive measures to minimize potential harm before it occurs, even in the face of scientific uncertainty. This approach ensures that the development and implementation of AI technologies account for potential risks, promoting safety and caution in areas lacking full understanding or certainty about AI's impacts .
Civil liability for artificial intelligence is designed to manage the uncertainties and risks associated with technological development by emphasizing transparency and security in business models. It is influenced by the principle of full reparation of the damage, focusing on the victim, and is based on a strict liability framework in consumer legislation. This approach leverages existing legal frameworks without introducing new electronic personalities or legal entities for AI, thereby aligning with contemporary legal requirements and technological incentives .
The main challenges in defining legal responsibility for AI damages include determining who is liable—whether it's the owner, user, manufacturer, or programmer—and under what type of liability rules these are classified, be they objective or subjective. Additionally, there's debate over whether existing legal frameworks are sufficient or if AI should be granted a form of legal personality akin to 'e-persons'. These complexities are compounded by the need to balance victim reparation with technological innovation incentives .
Contemporary legal interpretations, which emphasize strict liability without assigning independent legal personality to AI, encourage developers to incorporate robust safety measures in AI systems. This approach promotes careful monitoring and updating of AI technologies while providing legal clarity that fosters innovation. As such, legal frameworks that allow for flexible adaptation to new challenges can influence AI development positively by maintaining high accountability standards .
Not assigning legal personality to AI entities implies that responsibility for AI-caused damages remains with human actors such as owners or manufacturers rather than the AI itself. This approach avoids the complexities and uncertainties of creating a new legal status for AI while maintaining accountability within existing legal systems. However, it raises challenges in cases where AI exhibits autonomy, requiring clear attribution of responsibility within traditional frameworks .
The balance between innovation incentives and risk management in AI liability is maintained by adhering to existing strict liability principles, thus ensuring that victims are compensated without unduly stifling innovation. This framework offers clarity and predictability, crucial for technological advancement, while adopting precautionary measures to manage risks and protect stakeholders, as demonstrated in both European and American legislative approaches .
The principle of full reparation in civil liability for AI-related damages aims to ensure that victims are made whole, often through strict liability. This means that liability is established without the need to prove fault, focusing instead on risk management and damage prevention to facilitate comprehensive compensation for any harm resulting from AI operations. It aligns with modern liability theories that prioritize consumer protection and risk distribution .
Integrating AI into daily decision-making significantly impacts civil liability frameworks by increasing dependency on AI-driven systems, thus importing new risks that existing liability laws may struggle to address comprehensively. This integration leads to a need for robust, adaptable civil liability frameworks that can handle nuanced liability attributions, especially where AI systems function semi-autonomously or influence critical decisions .
European legal frameworks for AI liability emphasize the 'risk of development' as a potential excemption from liability, a stance that is approached differently in Brazil, where there is resistance to applying development risk as an excluder. Brazilian law tends to favor maintaining responsibility on producers even for unforeseeable damages, reflecting a stricter liability perspective intended to protect the consumer more strongly .
Failing to update AI systems adequately could lead to potential liability for both the user and the manufacturer. If the user disregards necessary updates that the manufacturer has flagged as relevant for preventing damage, liability may be mitigated or entirely shifted. This is rooted in the principles of cooperation and the duty to mitigate damage, emphasizing the importance of maintaining software updates to prevent harm .