Este texto foi publicado no Jus no endereço https://jus.com.br/artigos/11485
Para ver outras publicações como esta, acesse https://jus.com.br

Responsabilidade civil dos robôs?

Normas sociais de controle dos agentes eletrônicos

Responsabilidade civil dos robôs? Normas sociais de controle dos agentes eletrônicos

Publicado em . Elaborado em .

No início, quando apenas se imaginava a possibilidade de existência de robôs, princípios gerais como os oferecidos por Isaac Asimov eram considerados suficientes para sua regulação. Com a criação efetiva dos robôs e a expansão dos agentes eletrônicos principalmente na Internet, tais princípios mostraram-se insuficientes, cedendo espaço a auto-regulação por normas costumeiras.

L’acqua ch’io prendo già mai non si corse;

Minerva spira, e conducemi Appollo,

E nove Muse mi dimostran l’Orse

Dante Alighieri [01]

1.Introdução

Desde Maria, a robô revolucionária das massas subjugadas em Metrópolis [02], passando por Robby, de o Planeta Proibido [03] e o T-1000 de o Exterminador do Futuro [04], a ficção científica vem expandindo nossa imaginação para estes entes do futuro e sua incrível capacidade de realizar atividades humanas. Quando se fala em robôs, a primeira idéia que surge em nossa mente são entes humanóides que habitam o cotidiano de filmes de ficção científica como os já mencionados, ou ainda como o perigoso HAL de "2001: Uma Odisséia no Espaço" [05] ou o amigável R2-D2 de "Guerra nas Estrelas" [06]. Por isso, para iniciarmos o presente trabalho sem intimidar o leitor, mister realizar algumas observações sobre a epígrafe adotada.

O presente artigo não defende a humanização ou personificação dos robôs ou de quaisquer entes inumanos, que não sendo juridicamente enquadráveis como sujeitos de uma relação são, por definição, civilmente irresponsáveis. Na realidade, o que se pretende demonstrar aqui é como, mesmo no ambiente cibernético, o Direito imposto surge como uma necessidade natural de sistemas sociais complexos. Se no início, quando apenas se imaginava a possibilidade de existência de robôs, princípios gerais como os oferecidos por Isaac Asimov pareciam ser suficientes para sua regulação, como demonstraremos no Item 5.1, à medida que essa realidade social se concretiza, normas mais específicas surgem. Primeiro, como se verá no Item 5.2, surgem as normas de adesão espontânea, o que chamamos de normas morais ou costumeiras, capazes de regular o convívio social dentro do ambiente cibernético. Não obstante, os Padrões de Exclusão de Robôs – PER apenas resolvem um problema de coordenação de ações entre agentes sociais – ainda que eletrônicos –, não garante a imposição das regras em caso de descumprimento, o que é necessário para a evolução do sistema.

Esta segurança, fundamental para a realização de negócios de monta na rede, é fornecida por regras que podem ser acordadas e posteriormente impostas, caso haja descumprimento, são os chamados padrões de Intercâmbio Eletrônico de Dados (Electronic Data Interchange – EDI). Estes padrões são discutidos no Item 5.3. Além disso, demonstraremos no Item 5.4 que, com a popularização da Internet, mesmo as soluções contratuais como o EDI são incapazes de resolver problemas de contratação em larga escala, envolvendo contratantes dos mais variados estilos, razão pela qual a sociedade intervém e impõe regras generalizadas de forças coercitivas, isto é, leis que regulam o comportamento de todos, inclusive dos agentes eletrônicos. Apenas a título de exemplificação, algumas tentativas normativas no Direito Comparado são discutidas no Item 5.4, antes de oferecermos nossas conclusões finais.

Não é o objetivo do presente artigo discutir eventuais especificidades envolvendo atos [07] praticados por robôs industriais, domésticos [08], hospitalares [09], militares [10], biomecatrônicos [11] ou similares, que de uma forma ou de outra podem estar sob a égide de lei especial como, por exemplo, a legislação trabalhista, o código de defesa do consumidor ou o código penal militar. Assim sendo, cremos que uma breve análise como a que pretendemos aqui realizar será capaz de excitar e inquietar boa parte dos juristas que alguma vez tenha se aventurado pelo universo do Direito e da Informática. Iniciemos nossa análise, pois, com a definição do que venha a ser um robô.


2.Definição de Robô

Quando estudamos a etimologia da palavra robô, descobrimos que sua origem próxima é a palavra francesa robot, que por sua vez deriva do tcheco robota, que significa trabalho forçado [12]. A palavra possui ainda ligações etimológicas com os termos arabeit (problema, dificuldade, dilema) do Alemão Antigo e orbus (órfão) do Latim [13]. Sua conotação moderna é atribuída ao escritor tcheco Karel Capek que em sua peça R.U.R – Rossum’s Universal Robots, de 1921, se referia a autômatos produto de engenharia genética como robotas ou robotiniks [14]. Desde então a palavra robô foi amplamente difundida, principalmente pelas obras de Isaac Asimov [15], e ganhou o mundo.

No entanto, ainda hoje não há definição rigorosa e universal do que venha a ser um robô [16]. De acordo com o Merriam-Webster’s Collegiate Dictionary [17], entende-se por robô toda e qualquer máquina que se assemelhe a um ser humano e execute vários atos complexos, como andar ou falar. No campo da Robótica [18], o Instituto Americano de Robótica adotou a seguinte definição [19]: "um manipulador reprogramável e multifuncional desenvolvido para mover materiais, partes, instrumentos ou utensílios especializados por meio de vários movimentos programados para a performance de tarefas variadas". Essa definição se aproxima muito da definição de robô industrial proposta pela Organização Internacional de Padrões – ISO [20]. Já o Grupo de Robótica Inteligente da Unisinos – GRI [21]–, informa que não obstante inexistir definição precisa do que é um robô, há critérios mínimos para se classificar uma máquina como tal, quais sejam, capacidade (i) de obter informações sobre o seu próprio ambiente e (ii) de atuar de alguma forma física neste ambiente, por exemplo, se movendo ou manipulando objetos.

Como podemos facilmente concluir, enquanto a definição adotada pelo dicionário Webster verte para os robôs da ficção científica, entes humanóides como HAL e R2-D2, a definição do Instituto verte claramente para os robôs mecânicos utilizados para a automação de tarefas principalmente em indústrias, como a de automóveis [22]. Por outro lado, a definição do GRI prima pela existência de qualidades específicas– percepção e interação física com o meio ambiente – e fundamentais para a noção de autonomia, que trataremos adiante.

Em face dessa pluralidade de abordagens, optaremos, para fins desse trabalho, pela definição do Tech Museum of Information, que traz os elementos que reportamos fundamentais: "um robô é uma máquina capaz de obter informações sobre seu ambiente (sentir) e utilizar essas informações (processar) para seguir instruções e realizar seu trabalho (agir)" [23].

Assim, se alterarmos de maneira branda as aludidas acepções, podemos assumir que robô é todo e qualquer aparato capaz de executar tarefas complexas e interagir de maneira autônoma e independente com seu meio ambiente. A vantagem de nossa definição sobre as anteriormente expostas é que: (i) engloba todo e qualquer tipo de robô, seja ele industrial ou para fins recreativos [24], fruto da ficção científica ou não, humanóide ou não; (ii) prescinde da capacidade de realizar tarefas físicas no sentido de manipulação de objetos palpáveis e (iii) elimina o requisito implícito de o robô estar adstrito a um único hardware, ou seja, incluímos, desse modo, os programas-robôs, foco de nosso trabalho.


3.Programas-robôs ou Agentes Eletrônicos

Uma vez definido o significado genérico da palavra robô devemos agora melhor especificar o objeto de nossa análise. Eliminado-se os robôs como costumeiramente concebidos e passando ao reino do programas-robôs, devemos perguntar: o quê precisamente diferencia um simples programa de computador ou o próprio computador de um robô? Apesar de difícil resposta, essa pergunta não é de todo insolúvel.

Com a crescente fusão de computadores, redes de telecomunicação, robótica e a aplicação de tecnologias híbridas multi-organizacionais, a distinção entre computadores e robôs se tornou um tanto quanto arbitrária. Em alguns casos é possível imaginar uma inteligência principal permeando inúmeros sensores e ferramentas executoras, cada qual dotado de uma inteligência subsidiária, enquanto em outros é mais condizente com a realidade conceber múltiplos dispositivos, cada qual com sua própria capacidade sensorial, motora ou de processamento, todos sob alguma forma de coordenação. O ponto-chave para a distinção estaria, portanto, no comportamento complexo, persistente e independente de intervenção humana [25].

O termo programa-robô não é rigorosamente definido na literatura, seja ela computacional ou jurídica, mas operacionalmente significa programas cuja finalidade essencial é buscar e processar informações e, em alguns casos, tomar decisões, são inteligências artificiais [26]. Não são meros programas, pois são capazes de i) interagir com o meio em que se encontram (ciberespaço); ii) executar tarefas complexas e repetitivas; e iii) agir de forma independente e autônoma.

Melhor explicado, o programa-robô – por exemplo [27] – pode navegar nas páginas da Internet colhendo e/ou analisando informações. Executa, portanto, tarefas complexas. No desenvolver dessas ações, interage com outros robôs, páginas de Internet ou mesmo seres humanos. Satisfeito está, destarte, o quesito interação com seu meio ambiente. Além disso, uma vez ativado, o programa-robô funciona de maneira autônoma, sem intervenção ou controle humano para que possa atuar efetivamente.

Por fim, quando nos referimos à independência queremos frisar que sua ação independente de suporte físico específico, mas jamais de qualquer suporte. Todo programa-robô rodará necessariamente em algum equipamento (hardware), mas ao navegar a rede, ora o faz em uma máquina, ora o faz em outra, sem necessariamente se prender a uma delas. Nestes termos, o programa-robô é independente e autônomo. Se o leitor nos concede certa liberdade poética, tais robôs são como almas penadas que vagam pelas intricadas conexões da teia global de informações pulando de corpo em corpo para poderem cumprir seus desígnios. Toda a vez que sua atuação se dá (processamento de dados), se materializa (movimenta um computador).

No mesmo sentido que acabamos de expor, com base no trabalho de Stan Franklin e Art Graesser [28], Middlebrook e Muller construíram um quadro com as qualidades básicas de um programa-robô. Toda a vez que um programa apresentasse considerável parte das qualidades aqui listadas, nesta concepção, ele estaria se comportando como um "agente autônomo" [29].

Qualidade

Descrição

Reação

Reage a mudanças no ambiente

Autonomia

Exercita controle sobre suas próprias ações

Objetividade

Busca executar tarefas objetivas

Continuidade Relativa

Está rodando continuamente

Comunicação

Capacidade de comunicação com outros robôs ou pessoas

Aprendizagem

Mudança de comportamento com base em experiências passadas

Mobilidade

Movimenta-se de uma máquina para outra

Como não poderia deixar de ser nesta área, existe uma pletora de denominações para a mesma coisa [30]: agente eletrônico, robô cibernauta, robô computador, bot ou aranha são todos nomes para certos tipos de programas-robôs. Por isso, a questão taxonômica deve ser enfrentada antes que possamos adentrar a análise das espécies.

O termo agente eletrônico [31] não foi cunhado pela doutrina e jurisprudência norte-americana, mas foi adotado imediatamente e sem maiores questionamentos, ao menos em um primeiro momento [32]. A expressão se referiria à utilização de meios eletrônicos mediando a interação entre usuários e empresas web [33] e foi extraída de sua ampla utilização na literatura da ciência da computação de termos como agentes autônomos [34] ou inteligentes [35]. No entanto, de um certo modo, a adoção irrestrita do termo pode ser associada à tradição jurídica consuetudinária que comanda a utilização de regras casuísticas previamente estabelecidas (legal standards) para a solução de novas questões jurídicas. Destarte, quando do surgimento dos primeiros programas-robôs que realizavam tarefas e transações eletrônicas em nome de seus mestres, o jurista norte-americano naturalmente associou aquela figura ao que genericamente se chama de agency law [36].

O problema está justamente na adoção indiscriminada do termo agente eletrônico para se referir a programas-robôs [37], o que ofuscaria a própria questão fundamental de serem eles enquadráveis ou não dentro da categoria jurídica de agente e, conseqüentemente, se são subsumíveis àquele corpo do Direito realidade fática e relações sociais decorrentes. Nesse sentido, quando se encontra na literatura computacional referência ao termo agente, não se pode inferir que ali se estabelece relação de jurídica de agenciamento, mas sim que o termo está sendo utilizado de forma genérica e juridicamente não técnica. A confusão se aprofunda quando peças legislativas incorrem na mesma imprecisão ao nomearem agentes eletrônicos quando na realidade pretendem referir-se a intermediários eletrônicos [38]. A União Européia, por exemplo, que em grande medida segue o modelo romano-germânico, em proposta de unificação de legislação sobre comércio eletrônico faz referência ao uso de agentes eletrônicos inteligentes em certos documentos.

Para um melhor entendimento da problemática taxionômica, em termos pátrios, seria como chamar robôs de mandatários, independentemente de estar configurada a relação jurídica de mandato. Questionar-se-ia mesmo assim a possibilidade de um programa de computador figurar como mandatário frente ao Direito brasileiro. Nos parece que a resposta é claramente negativa. A natureza jurídica de um determinado robô deve ser determinada pelas regras jurídicas que sobre ele incidem, que podem variar de acordo com a finalidade ou forma de aquisição, não de acordo com a denominação atribuída por seu criador. De qualquer forma, não vemos maiores preocupações no uso do termo agente eletrônico no Brasil, pois o termo reflete com propriedade do que se trata.

Prosseguindo, a expressão robô cibernauta [39] também é utilizada como sinônimo de programa-robô [40], quando definido como programa de busca na Internet que navega através de sítios de forma automatizada, extraindo e copiando informações ou funções de outros sítios [41]. Em geral, quando sua finalidade se restringe apenas à busca de informações utiliza-se a palavra bot [42], enquanto quando além de buscá-las ele as indexa e categoriza são denominados aranhas [43]. A fim de uniformizar a linguagem, de agora em diante, utilizaremos a denominação programa-robô ou simplesmente robô, quando nos referirmos a categoria como um todo, e o nome específico do tipo quando for necessário.


4.Tipos de Programas-robôs

Os programas-robôs podem exercer inúmeras funções, algumas úteis e outras socialmente indesejáveis. Em virtude de cada uma delas é possível se imaginar uma denominação ou classificação. Vejamos as mais conhecidas.

As aranhas ou web crawlers são programas que navegam pela Internet independentemente [44] indexando cada palavra-chave que encontram no hipertexto das páginas que analisam. Depois de indexada toda a página, se movem para todas as demais páginas referidas (linked) pela página indexada, reiniciando o processo a cada nova página. A função primordial das aranhas é analisar e indexar toda a Internet. São, portanto, neutros com relação ao conteúdo que analisam. Estes robôs criam os bancos de dados sobre os quais funciona grande parte dos mecanismos de buscas. Quando as aranhas buscam suas informações não aleatoriamente pelas páginas da Internet, mas por meio de consultas a outros mecanismos de buscas, dizemos que se trata de uma meta-aranha ou mecanismo de meta-busca. Importante notar que alguns desses robôs não lêem simplesmente páginas web e as indexa, eles extraem funcionalidades de outros mecanismos, por isso, o prefixo "meta". As aranhas são elementos essenciais para os chamados mecanismos de busca, inclusive para os jurídicos [45].

Os mineradores de informação ou data mining bots são semelhantes às aranhas, mas o seu propósito não é indexar cada página encontrada, mas sim analisar seu conteúdo e dele extrair determinadas informações. Não são, portanto, neutros com relação ao conteúdo que analisam. Inúmeras empresas utilizam este tipo de robô para varrer a rede atrás de material que viole seus direitos autorais ou propriedade intelectual [46]. Além disso, a Comissão de Valores Mobiliários dos Estados Unidos – SEC – anunciou sua intenção de utilizar este tipo de robô para monitorar sítios na Internet, quadros de mensagens e salas de bate-papo em busca de evidências de manipulação e fraude na negociação de ações [47].

Os comerciantes eletrônicos ou online retailers são robôs programados para interagir com seres humanos e, mediante a execução de certas instruções, instruir e efetivar a venda de produtos e/ou serviços em nome de seu mestre. Todo sítio automatizado para realizar vendas pela Internet sem intervenção humana do lado do vendedor é, em última análise, um robô comerciante eletrônico.

Os agentes de pagamento ou person-to-person payment systems são robôs que permitem o intercâmbio de capital entre eles por meio de métodos variados, incluindo cartões de crédito e transferência eletrônica de fundos. Quando combinado com agentes eletrônicos que aprendem as preferências dos usuários e são capazes de buscar na Internet as melhores ofertas dos produtos que desejamos, temos um poderoso instrumento de gerenciamento de compras.

Como se pode ver, é possível se elaborar uma nomenclatura específica para cada tipo de robô, de acordo com a finalidade social que desempenha. Esta lista poderia se estender ainda muito mais, mas cremos que os exemplos aqui citados bastam para dar ao leitor uma idéia das espécies desse universo e para que se tenha uma idéia mais precisa do que está sendo analisado no presente trabalho.

É importante lembrar que dos robôs supracitados, todos cumprem finalidades socialmente desejáveis, mas não há nada intrínseco a eles que nos garanta que sempre cumprirão tais finalidades. Os vírus, por exemplo, são agentes nocivos aos sistemas informáticos e podem ser considerados grosso modo robôs originariamente com finalidades anti-sociais. Programas autônomos com erros de desenvolvimento, que fujam ao controle, também podem ser considerados robôs nocivos. Por isso, feita esta breve exposição dos tipos mais conhecidos de programas-robôs, passemos ao tratamento jurídico desses entes tão interessantes.


5.Regulação dos Programas-robôs

5.1.Normas Fundamentais de Conduta – Os Mandamentos de Asimov

As primeiras normas aplicáveis aos robôs que se tem notícia foram propostas por Isaac Asimov em Runaround [48]. Ao propô-las, Asimov se tornou o primeiro a desenvolver um conjunto de regras que permitiriam o controle sobre máquinas semiconscientes [49]. Segundo Asimov, para que a convivência humana fosse compatível com a existência de autômatos, estes deveriam seguir os três mandamentos fundamentais:

I-A um robô é vedado causar dano a um ser humano ou comissivamente permitir que um ser humano sofra injúria;

II-Um robô deve obedecer aos comandos dos seres humanos, exceto quando tais comandos conflitaram com o Primeiro Mandamento; e

III-Um robô deve se autopreservar desde que a autopreservação não conflite com o Primeiro e Segundo Mandamentos.

A medida que criava novas estórias, Asimov percebeu por seus exemplos hipotéticos que a existência dessa carta fundamental não bastaria para regular os inumeráveis conflitos humanos e morais que poderiam advir do desenvolvimento tecnológico. Destarte, em 1985, Isaac Asimov propôs um aditamento aos mandamentos fundamentais, o Mandamento Zero [50]:

(0)A um robô é vedado causar dano à humanidade, ou permitir que a humanidade seja prejudicada.

A alteração desvenda indubitável caráter paternalista de seu propositor e traz, em seu bojo, profundas implicações filosóficas e jurídicas ao sistema social que se fundamente em tais normas. O autor que melhor trabalha essas implicações, inclusive as conseqüências para a robótica moderna, é Roger Clarke [51], mas para o nosso limitado propósito, essas considerações bastam. Por fim, note-se que até este estágio, as normas imaginadas por Isaac Asimov se aplicariam apenas a robôs que à sua época não existiam. Assim, para ele, normas genéricas, próximas a princípios, pareciam suficientes para regular a imaginada realidade social, ainda que futura.

5.2.Normas Morais de Condutas ou Costume – Padrões de Exclusão de Robôs

Enquanto os robôs restringiam-se às personagens da ficção, as normas de caráter humanistas propostas por Asimov bastaram à literatura robótica, contudo a realidade insistiu em imitar a arte e os robôs debutaram de forma incisiva no cotidiano humano. A partir da massificação de redes de computadores pelo mundo, a necessidade de criação de sistemas autônomos capazes de interação social cresceu e o intelecto foi célere em satisfazê-la criando os programas-robôs. Estes entes são capazes de interagir, aprender, colaborar, competir por recursos e, portanto, convivem. Como não poderia deixar de ser, uma vez estabelecido o convívio comum, inafastável o estabelecimento de regras mínimas de convivência. O adágio da sabedoria dos antigos ubi societas, ibis ius nos ensina que mesmo neste restrito espaço de interação intersubjetiva, o regramento é inerente ao convívio coletivo. Surgem assim, espontaneamente, regras mínimas de convivência cibernética [52], entre as quais se destacam os chamados Padrões para Exclusão de Robôs – PER [53] e os Meta Tags de Exclusão [54].

Os PER são regras de cunho moral que estabelecem processos voluntários por meio dos quais os administradores de sítios na Internet (web masters) podem impedir o acesso de robôs a determinadas partes de seus sítios [55]. Na realidade, os PER permitem que os administradores criem arquivos especiais em seus servidores, ou incluam códigos de programação preventivos em suas páginas, que instruem os robôs que os lêem sobre quais páginas podem acessar e a quais informações podem ter acesso [56].

Este tipo de norma social tem a vantagem da autocomposição eficiente de interesses pois, não inviabiliza a utilização de robôs, elemento essencial para a manutenção e utilização da Internet, enquanto garante aos administradores controle sobre os acessos a seus sítios e das informações que dispõem. Não obstante, conforme supramencionado, essas normas são de natureza estritamente moral, pois não há instituição ou mecanismo que lhes empreste força cogente. Obviamente, nem todos os robôs desenvolvidos as respeitam. Assim, não obstante existirem regras morais mínimas de convivência, à medida que a comunidade cibernética se torna mais e mais complexa e, principalmente, com o início de sua exploração comercial, tais normas não mais bastam para sua regulação. O conflito de interesses econômicos dos agentes é incompatível com tais regras já que inexiste sanção efetiva que coaja potenciais desviantes.

Quando possível, os particulares optaram pela auto-regulação contratual. Quando esta via se mostrou inviável, seja pela impossibilidade de contratar, seja pela incompatibilidade de interesses, a alternativa foi buscar resguardo de seus interesses no direito preexistente, principalmente no âmbito da responsabilidade civil. Seguindo a sina do atraso, o Direito não restou impassível frente à realidade social e iniciativas legislativas começaram a surgir.

5.3.Intercâmbio Eletrônico de Dados – EDI

A partir do incremento acelerado da utilização de autômatos para a realização de tarefas ou de programas avançados para a realização de transações comerciais no curso normal dos negócios, normas mais complexas se fizeram necessárias. Em um primeiro momento, as indústrias lançaram mão de meios automatizados para a troca de informações e estes sistemas se tornaram cada vez mais e mais complexos. É neste contexto que se estabelecem os protocolos de Intercâmbio Eletrônico de Dados ou EDI (Electronic Data Interchange) [57].

O Intercâmbio Eletrônico de Dados se refere não apenas a programas para a troca de ordens de compra ou confirmações de pedidos que dessem origem a um contrato; o sistema permitia também o intercâmbio de informações sobre todos os estágios do processo de aquisição, inclusive sobre o status de um carregamento pendente ou a administração de estoques. Devido a sua "pervasividade" e amplitude, para que tais sistemas funcionassem, era necessário que os integrantes do sistema tivessem a certeza de que os dados gerados por um determinado participante fossem perfeitamente inteligíveis aos demais participantes. Assim, para a sua viabilização, o EDI se apóia fundamentalmente no estabelecimento de padrões, que são controlados, de um modo geral, pela Associação para Padrões de Intercâmbio de Dados – DISA [58] –, pelo Centro das Nações Unidas para a Facilitação do Comércio e Comércio Eletrônico – UN/CEFACT [59] –, e por setores industriais verticalmente integrados que adotam códigos específicos [60].

Devido aos altos custos associados a esta forma de comércio eletrônico e à complexidade de desenvolvimento de métodos de negócio que gerem resultados padronizados, o EDI tem sido utilizado primariamente por grandes empresas e alguns governos [61].

Na ausência de leis específicas, a relação entre os participantes dos sistemas EDI é geralmente governada por acordos escritos estabelecidos no início da relação comercial eletrônica. Tais acordos estabelecem, entre outras coisas, que tipos de transações serão executadas pelas partes por meio de EDI e que as partes concordam em aceitar mensagens eletrônicas como equivalentes a documentos assinados [62]. Os limites desses acordos não foram testados juridicamente, pois, seja pela relutância das grandes empresas em acionar umas as outras, seja pela qualidade dos Acordos Modelo de Parceria Comercial [63] utilizados, não há notícia de litígio envolvendo tais acordos [64].

Note-se que, apesar de o conteúdo das regras de EDI ter sido elaborado e acordado entre as partes, portanto, de natureza privada, a simples existência desse sistema de regulação social é intimamente dependente da existência de um ente estatal que imponha seus termos em caso de comportamento desviante. É perceptível, portanto, que à medida que as interações sociais se densificam e ganham complexidade, passa a ser fundamental a intervenção estatal, se não para criar regras, para impor ou ameaçar impor aquelas criadas pelos particulares.

As regras gerais sobre EDI e os Acordos de Parceria seriam de muita utilidade quando da análise de transações realizadas por robôs na Internet se as realidades não fossem tão distantes. Não há como comparar a realidade fática dos bots que navegam livremente pela Internet ou os sistemas abertos de contratação automática dos modernos sítios de comércio eletrônico com o universo restrito e altamente regulado dos sistemas EDI. Os seguintes fatores dificultariam a adoção de tais regras: i) no anônimo mundo da Internet, as partes contratantes podem não se conhecer anteriormente; ii) frente à massificação da contratação eletrônica, é inviável a utilização de um contrato modelo; e, finalmente, iii) um dos pólos pode estar sujeito, além das normas gerais do direito contratual, à legislações especiais, e.g. consumidores e entes públicos. Diante da inviabilidade de utilização das regras aplicáveis aos EDI, legislação específica que desse suporte às relações jurídicas resultantes de ações de programas-robôs teve de ser elaborada.

5.4.Legislação sobre Robôs no Direito Comparado

Não obstante a utilização de robôs no comércio eletrônico estar limitada tradicionalmente à obtenção e manipulação de informações na Internet, como a comparação de preços [65] ou localização de artigos específicos em sítios de leilões [66], a tecnologia necessária para a utilização plena de robôs na realização de transações em nome de seus mestres já está disponível [67]. Na realidade, em alguns casos a tecnologia já foi efetivamente implantada, ainda que com algumas limitações, como por exemplo, no mercado acionário norte-americano onde é possível encontrar robôs programados para realizar certos tipos de investimentos em nome de algumas grandes instituições financeiras [68]. Além disso, hoje é extremamente comum a utilização de sistemas automatizados para a realização de negócios na Internet que celebram, em nome de seus mantenedores, contratos de compra e venda, bastando para tanto que a outra parte execute determinados procedimentos [69] (e.g. escolher o produto, informar a forma de pagamento e concordar com os termos do negócio).

A seguir descreveremos brevemente algumas propostas legislativas que tentam de construir um suporte legal para as transações em massa na Internet e que de alguma forma envolvam agentes eletrônicos.

5.4.1.A Legislação Canadense

A proliferação de sistemas automatizados e a utilização de programas-robôs levaram vários países a adotar leis escritas regulando de modo a incentivar pela redução de riscos esta nova forma de comércio. No Canadá, onde os estados gozam de relativa autonomia para legislar, a Uniform Law Conference of Canada adotou e recomendou aos estados que incorporassem o Uniform Electronic Commerce Act – UECA [70], que versa sobre transações eletrônicas e garante validade jurídica aos negócios realizados por intermédio de programas-robôss [71].

5.4.2.A Legislação Norte-Americana

Por sua vez nos Estados Unidos, que também adota o modelo de legislação prioritariamente atomizado entre os estados, dois modelos de lei uniforme foram discutidos inicialmente, o Uniform Computer Information Transactions Act (UCITA) [72] e o Uniform Electronic Transactions Act (UETA) [73]. Entre outros aspectos ligados ao comércio eletrônico, ambos regularam de alguma forma os agentes eletrônicos dando início ao que viria a ser a primeira legislação norte-americana sobre os programas-robôs. Em seguida, adotados os projetos pela National Conference of Commissioners on Uniform State Law (NCCUSL), foram recomendados para incorporação ao direito interno dos estados. Com o fulcro de propiciar adoção imediata e uniforme de legislação sobre comércio eletrônico, o governo federal promulgou o Electronic Signatures in Global and National Commerce Act (E-SIGN) [74], que fundado no UETA, também possui previsões sobre agentes eletrônicos.

5.4.2.1.UETA

O primeiro aspecto que vale a pena ser mencionado no UETA é o fato de ter adotado a terminologia "agente eletrônico" para se referir a objetos inanimados ou processos. De acordo com o projeto, um agente eletrônico pode ser definido como "um programa de computador ou um meio eletrônico ou outro meio autômato independentemente utilizado para iniciar ação para, ou resposta a, registro eletrônico ou performance no todo ou em parte, sem a supervisão ou ação de um indivíduo" [75].

Não obstante a dubiedade taxonômica causada pela adoção do termo agente, correspondente a mandatário em português, os autores do projeto deixaram claro que um agente eletrônico, como definido, é essencialmente uma ferramenta do usuário [76] que, ao contrário do mandatário humano, é incapaz de praticar atos ultra vires imputáveis ao mandante em uma relação de agency [77]. Ainda assim, os próprios autores comentam que em um futuro não muito distante, os programas de computador utilizados no comércio eletrônico evoluirão de um comportamento automático para autônomo. Esse comentário teria por função incentivar as cortes norte-americanas a interpretarem a definição de agente eletrônico para incluir robôs autônomos, sem, contudo, tentar prever o futuro [78].

Um outro aspecto que pode ser levantado aqui é a função básica do UETA, deixar claro que um contrato pode ser formado tanto por meio de uma transação automatizada, e.g. uma operação EDI, quanto por um agente eletrônico em um ou ambos os pólos da relação, ainda que nenhum ser humano tenha revisto os resultados da ação do agente eletrônico [79]. Esse preceito teria por função unicamente prevenir que se argumente que o uso de um mecanismo eletrônico ou processo autômato por si só fosse incapaz de juridicamente caracterizar o consentimento de umas das partes e, portanto, elemento impeditivo de aperfeiçoamento jurídico do contrato. O que não implica em eliminar a argumentação de que de fato não houve consentimento ou outras linhas de defesa [80].

Por fim, o aspecto de maior relevo para o estudo da responsabilidade civil por atos praticados por robôs são as disposições do UETA que tratam da atribuição de autoria dos atos praticados por programas-robôs.

Nos termos da regra básica de autoria (attribution rule), ou responsabilidade, conforme se encare a questão, que se aplica a todas as transações eletrônicas não apenas àquelas realizadas por robôs, "um registro ou assinatura eletrônicos é atribuível a determinada pessoa se é resultado de um ato da pessoa" [81]. A comprovação de que determinada ação (consentimento) é atribuível a determinada pessoa pode se dar por qualquer meio, inclusive pela demonstração de eficácia de procedimento de segurança aplicado à transação.

Além disso, para estabelecer o liame de ligação entre o ato do robô e o ato da pessoa em questão, em comentário ao dispositivo acima, os autores afirmam que o conceito de "ações de uma pessoa inclui [...] ações realizadas por um agente eletrônico, i.e., o instrumento, da pessoa" [82]. Esse preceito, que nos parece indispensável para o reconhecimento da validade jurídica de atos praticados por robôs, permite, no entanto, que se conteste em defesa que determinado registro ou ato eletrônico não é, de fato, resultado de ato da parte a quem se imputa o ato. Mesmo que um procedimento de segurança tenha sido seguido, não há presunção de que tenha sido efetivo, e a parte que não reconhece o ato terá a oportunidade de convencer o juiz de que o registro não resulta de ato seu, por exemplo, que o agente foi capturado e manipulado por outra pessoa [83].

5.4.2.2.E_SIGN

Na mesma linha do projeto UETA, foi promulgado pelo governo federal o E-SIGN, cujo um dos principais objetivos foi incentivar a adoção uniforme do UETA pelos estados [84] e no qual se inspirou. Conseqüentemente, as disposições sobre agentes eletrônicos são muito semelhantes às mencionadas acima, ainda que se materializem em número reduzido: apenas a definição de agente eletrônico e o princípio geral de validade dos contratos eletrônicos [85].

O E-SIGN adota definição de agente eletrônico muito semelhante a do UETA, simplesmente reforça a idéia de que um agente é algo que atua sem a supervisão de um indivíduo quando diz que um agente eletrônico age "sem supervisão ou ação de um indivíduo no momento da ação ou resposta" [86]. Há quem indague se a inclusão dessa linguagem não denota certa ambigüidade na definição original do UETA, a ponto de se incluir um processo computadorizado sujeito a supervisão humana depois de algumas, mas não todas, as etapas no conceito de agente eletrônico [87].

Outra tênue, mas relevante alteração da linguagem proposta pelo UETA pode ser encontrada no dispositivo que trata especificamente da validade jurídica dos contratos celebrados por meio de robôs [88]:

A contrato ou registro qualquer relativo a transação interestadual ou internacional, ou que afete comércio interestadual ou internacional, não será negado efeitos legais, validade, ou efetividade exclusivamente por sua formação, criação ou entrega envolver a ação de um ou mais agentes eletrônicos, desde que a ação do agente eletrônico envolvido seja legalmente atribuível à pessoa a ser vinculada.

Novamente, a adoção de linguagem ligeiramente mais forte no E-SIGN parece indicar uma sugestão para que se questione até que ponto a ação de um robô é atribuível, em outras palavras, vincula o particular. O diploma federal, ao contrário de seu projeto inspirador, não propugna regra geral de autoria e responsabilidade de ato praticado por robô, o que demonstra potencial conflito entre abordagens.

5.4.2.3.UCITA

Finalmente, a lei sobre transações computadorizadas, projeto muito mais abrangente e ambicioso que os anteriores, representa tentativa de micro-código do comércio eletrônico a ser incluído no Código Comercial Uniforme dos Estados Unidos, e contrasta em alguns pontos com o UETA e E-SIGN.

A primeira questão que se levanta é que o UCITA adota o princípio básico de que um contrato pode ser celebrado por dois robôs [89] e sua definição de agente eletrônico inclui linguagem que exige que os atos de um agente ocorram sem a supervisão de um indivíduo no momento da ação ou resposta à mensagem ou performance [90].

Além disso, nos molde do UETA, possui uma regra de atribuição, quando estabelece que uma autenticação eletrônica – equivalente à assinatura eletrônica do UETA – ou um registro eletrônico é atribuível a determinada pessoa se resulta de ato dessa pessoa ou de seu agente eletrônico.

Não obstante as similitudes entre as regulações, o UCITA é mais detalhado quando estabelece as regras para a caracterização do elemento volitivo dedutível de atos de um robô e sua capacidade de manifestar consentimento ou aceitar uma oferta. A lei modelo é clara quando incorpora a norma de que uma pessoa é responsável pelos atos de seu agente eletrônico:

A pessoa que utiliza um agente eletrônico que tenha selecionado para realizar uma autenticação, performance, ou acordo, incluindo a manifestação de consentimento, está vinculada às operações do agente eletrônico, mesmo que nenhum indivíduo conheça ou supervisione as operações do agente ou os resultados delas [91].

Em comentário, o projeto explica que por "selecionado" se entende qualquer escolha consciente de empregar um agente eletrônico, tenha ele sido criado pelo usuário ou por outra pessoa, desde que o agente esteja operando dentro de seu propósito inicial [92].


6.Conclusões

No presente trabalho demonstramos que, mesmo no ambiente cibernético, o Direito imposto surge como uma necessidade natural de sistemas sociais complexos. No início, quando apenas se imaginava a possibilidade de existência de robôs, princípios gerais como os oferecidos por Isaac Asimov eram considerados suficientes para sua regulação. Tais princípios foram discutidos brevemente no Item 5.1. Com a criação efetiva dos robôs e a expansão dos agentes eletrônicos principalmente na Internet, por razões práticas, tais princípios mostraram-se insuficientes, cedendo espaço a auto-regulaçãopor normas costumeiras, como os Padrões de Exclusão de Robôs – PER, o que foi demonstrado no Item 5.2.

Não obstante, tais normas costumeiras não são cogentes, isto é, são normas de adesão espontânea. Elas regulam o convívio social dentro do ambiente cibernético apenas enquanto os agentes desejam cooperar, não são capazes de lidar com o comportamento desviante. Originalmente,quando a Internet era ocupada por um punhado de cientistas que se conheciam, a coação social poderia ser suficiente para tanto. Com o crescimento da rede e a absoluta impessoalidade que agora reina, tais regramentos morais mostram-se simplesmente ineficazes.

A segurança, não apenas das informações, mas a segurança jurídica necessária para a realização de negócios de monta na rede é garantida por regras que podem ser acordadas (contratos sobre como realizar contratos) e posteriormente impostas, caso haja descumprimento. O principal exemplo de tais regras são os padrões de Intercâmbio Eletrônico de Dados (Electronic Data Interchange – EDI), discutidos no Item 5.3.

Além disso, demonstramos no Item 5.4 que, com a popularização da Internet, mesmo as soluções contratuais como o EDI foram incapazes de resolver todos os problemas de contratação em larga escala, envolvendo contratantes dos mais variados estilos, razão pela qual a sociedade tende a intervir e impor regras generalizadas de força coercitivas, isto é, leis que regulam o comportamento de todos, inclusive dos agentes eletrônicos. A lei positiva é uma das formas tradicionais de resolução de problemas de coordenação e este, como não poderia deixar de ser, é um dos papéis fundamentais do Estado.

Assim como ocorreu naturalmente no âmbito de interação tradicional, pelo exposto, resta claro que no meio cibernético – independentemente de suas peculiaridades – o incremento de complexidade social e a evolução da interação entre conhecidos para a sociedade em geral é sempre acompanhada da imposição de normas cogentes impostas pelo Estado. Em outras palavras, o Direito positivo é o resultado natural e necessário da evolução das relações sociais no âmbito da Internet. Mesmo aqueles que defendem a não-interferência dos governos devem reconhecer que para que a rede evolua e cresça em importância a intervenção estatal é fundamental. Não obstante, quanta intervenção é necessária e como ela deve se concretizar são questões diversas a serem determinadas pela nossa e pelas gerações futuras.


Notas

  1. ALIGHIERI, Dante. A Divina Comédia: Paraíso. Trad. e notas de Ítalo Eugenio Mauro. Canto II, Verso 7. São Paulo: Ed. 34, 1998, p. 19.
  2. LANG, Fritz. Metrópolis. Alemanha: 1926. No clássico, que se passa em 2026, um robô chamado Maria é infiltrado nas massas de operários para desincentivá-las a rebelião, acabando por liderá-la. Esta descrição reflete o imaginário característico da época, quando a Revolução Industrial já atingira seu ápice e o sistema econômico de produção capitalista começava a dar sinais evidentes de desgaste, o que certamente levava a um certo pessimismo quanto ao futuro.
  3. WILCOX, Fred M. Planeta Proibido. EUA: 1956.
  4. CAMERON, James. O Exterminador do Futuro. EUA:1984. Em 1984 um ciborgue assassino é enviado ao passado para eliminar o futuro líder da resistência que, em 2029, luta contra uma raça de máquinas controladas por computador que adquiriram consciência e desejam eliminar a raça humana.
  5. Na realidade o nome completo do robô é HAL 9000 e a ele incumbia o comando da nave Discovery que, em 2001, viajava a caminho de Júpiter. No dizer de seu diretor, o filme trabalha a relação entre o homem e o universo. KUBRICK, Stanley. 2001: Uma Odisséia no Espaço. EUA: 1968. Para uma breve explanação sobre seu significado acesse o endereço: www.kubrick2001.com.
  6. R2-D2 ou Artoo-Deetoo é um dróide astromech que, apesar de não ser capaz de se comunicar em linguagem humana, possui comportamento e sentimentos humanos. LUCAS, George. Guerra nas Estrelas – Episódio IV: Uma Nova Esperança. EUA: 1977. Para maiores detalhes acesse o endereço www.starwars.com/databank/droid/ r2d2.
  7. A bem da clareza, ressaltamos que aqui nos referimos a ato no sentido comum da palavra, jamais ao termo técnico ato jurídico, vez que este está intrinsecamente ligado ao elemento volitivo humano na realização de um negócio jurídico. Vide art. 104 do Código Civil; e REALE, Miguel. Lições Preliminares de Direito. 22° Ed. São Paulo: Saraiva, 1995, p. 201.
  8. Por exemplo, cfr. o Roomba, robô aspirador de pó (www.roombavac.it), ou o Friendly Robotics RL800 Robomower, cortador de grama.
  9. Parsell, D.L. Surgeons in U.S. Perform Operation in France Via Robot. National Geographic News, September 19, 2001, http://news.nationalgeographic.com/news/2001/09/0919_robotsurgery.html.
  10. Cfr. DoD. "Unmanned Effects: Taking the Human out of the Loop", Department of Defense, Project Alpha, EUA, 2003, ou ainda, http://en.wikipedia.org/wiki/Military_robot. Após a reestruturação das Forças Armadas Norte-Americanas o Projeto Alfa foi oficialmente abandonado e suas informações retiradas da rede, mas algumas persistem no endereço (tudo junto) http://web.archive.org/web/20021022172516/http:// www.jfcom. mil/about/fact_alpha.htm
  11. Robôs biomecatrômicos são construídos a partir de material orgânico, designadamente fibra muscular. A biomecatrônica é área específica de pesquisa no campo da inteligência artificial. Para maiores detalhes cfr. Biomechatronics Group, Massachusetts Institute of Technology, http://biomech.media.mit.edu/.
  12. Cfr. o verbete "robô" em FERREIRA, Aurélio Buarque de Holanda. Novo Dicionário da Língua Portuguesa. 1ª Edição, 14ª Impressão. Nova Fronteira.
  13. Cfr. o verbete robot em Merriam-Webster’s Collegiate Dictionary, www.webster.com.
  14. Na realidade o autor já havia utilizado o termo anteriormente em um de seus contos (1918), mas foi com a peça RUR que o termo ganhou notoriedade. A íntegra da peça está disponível em www.gutenberg.org/etext/13083.
  15. Isaac Asimov, russo de nascença e naturalizado norte-americano, foi escritor e cientista (PhD em bioquímica pela Columbia University). Sua obra versa sobre infindável miríade de assuntos, mas ficou conhecido principalmente por seus livros de ficção científica. Os mais famosos incluem "Eu, Robô", de 1950; a trilogia "Fundação", de 1951-1952; "Fundação II", de 1982; e "Despertar dos Deuses", de 1972, obra ganhadora dos prêmios Hugo e Nebula. Para maiores detalhes sobre a vida e obra deste brilhante escritor acesse www.asimovonline.com.
  16. Cfr. ARAA. Australian Robotics & Automation Association Inc., www.araa.asn.au.
  17. Vide nota supra.
  18. Aqui entendido como o conjunto dos estudos e das técnicas que permitem a utilização de robôs na automação tarefas. A palavra robótica utilizada para se referir ao estudo e uso de robôs foi empregada pela primeira vez por Isaac Asimov em seu conto Runaround de 1942, que pode ser encontrado em seu famoso livro coletânea "Eu, Robô". Cfr. nota supra.
  19. "A reprogrammable, multifunctional manipulator designed to move material, parts, tools, or specialized devices through various programmed motions for the performance of a variety of tasks." RIA, Robot Institute of America. RIA Robotics Glossary. Robotics Industry Association: Ann Arbor, MI, 1984, www.kcrobotics.com/robot_information/robot_glossary.php.
  20. Cfr. www.ethicsweb.ca/robots/whatisarobot.htm.
  21. UNISINOS, Universidade do Vale do Rio dos Sinos, Centro de Robótica Inteligente, disponível no endereço http://ncg.unisinos.br/robotica.
  22. Para uma breve descrição com ilustrações de robôs industriais cfr. PIRES, J. Noberto, Codex Automaticus – Os Primórdios da Robótica Moderna, Grupo de Controlo e Gestão do Departamento de Engenharia Mecânica da Universidade de Coimbra, em http://robotics.dem.uc.pt/norberto/codex5.pdf.
  23. Cfr. www.thetech.org/robotics/activities/page02.html.
  24. Temos, como exemplo, o cachorro AIBO da Sony. AIBO significa companheiro em japonês e, ao mesmo tempo, de acrônimo para Artificial Intelligence Robot (Inteligência Artificial Robô). Para maiores informações cfr. www.aibo-europe.com/ e www.robotbooks.com/sony_aibo.htm.
  25. CLARKE, Roger. Asimov’s Laws of Robotics – Implications for Information Technology. Institute of Electrical and Electronics Engineers, Computer 26,12, December, 1993, pp. 53-61. Também disponível em www.anu.edu.au/people/Roger.Clarke/SOS/Asimov.html.
  26. O termo Inteligência Artificial foi proposto inicialmente por John McCarthy para significar "a ciência ou engenharia de fazer máquinas inteligentes", cf. MCCARTHY, John. What is Artificial Intelligence?, Stanford University, Computer Science Department, November 24, 2004, em www-formal.stanford.edu/jmc/whatisai/ whatisai.html.
  27. Os programas-robôs não existem apenas no ambiente da Internet, muito pelo contrário, estão presentes em várias redes de computadores independentes e mesmo computadores isolados. Nada obstante, o foco do presente trabalho se restringirá, em sua maior parte, aos programas-robôs que atuam na Internet.
  28. FRANKLIN, Stan e GRAESSER, Art. Is it an Agent, or Just a Program? A Taxonomy for Autonomous Agents. Third International Workshop on Agent Theories, Architectures, and Languages, 1996, em www.msci.memphis.edu/~franklin/AgentProg.html.
  29. MULLER, John e MIDDLEBROOK, Stephen T. Thoughts on Bots: The Emerging Law of Electronic Agents. Business Lawyer, November, 2000, p. 342.
  30. Idem, ibidem, p. 341.
  31. Cfr. GUTTMAN, Robert H. et al. Agent-Mediated Electronic Commerce: A Survey, Knowledge Engineering Review, June, 1998, http://alumni.media.mit.edu/~guttman/research/pubs/ker98.pdf.
  32. LEROUGE, Jean-Francois. The Use of Electronic Agents Questioned under Contractual Law: Suggested Solutions on a European and American Level. Symposium: Uniform Computer Information Transaction Act. In: John Marshall Journal of Computer and Information Law, Winter, 1999, p. 403; e WONG, David D. The Emerging of Electronic Agents: E-commerce and Beyond... Suffolk University Law Review, 1999, p. 83.
  33. JULIA-BARCELO, R. Electronic Contracts, 15 Computer L. Sec. Rep. 3, 153 (1999); e MACREDIE, Robert D. Mediating Buyer-Seller Interactions: The Role of Agents in Web Commerce, 8 Elect. Mkt. 3, 40 (1998). In: LEROUGE, op.cit., p. 404.
  34. FRANKLIN e GRAESSER, op. cit.
  35. MURCH, Richard e JOHNSON, Tony. Intelligent Software Agents, Prentice Hall PTR: 1998. In: MIDDLEBROOK, op.cit., p. 342.
  36. No Direito norte-americano, agência é uma relação fiduciária criada por um contrato, expresso ou implícito, no qual uma das partes (o agente) pode agir em nome da outra parte (o principal) e vincular esta pessoa por suas ações ou palavras. Cfr. GARNER, Bryan A (Ed.). Black’s Law Dictionary. 7th Ed. St. Paul: West Group, 1999, verbete Agency, p. 62.
  37. REAGLE, Joseph M. Agent: I don’t think it means what you think it means, 1999, p. 2, em http://cyber.law.harvard.edu/people/reagle/agents-19990524.html.
  38. MIDDLEBROOK, op.cit., p. 342.
  39. O termo em inglês é cyberian robot, onde cyberian significa "pertencente ao mundo da rede de computadores e comunicações".
  40. TONSING, Mike. A Tale of Two Cyberian Robots. The Federal Lawyer in Cyberia In: Federal Lawyer, Federal Bar Association, n.° 48, March/April, 2001, p. 12.
  41. Idem, ibidem.
  42. Cfr. BOTSPOT, What is a bot?, www.botspot.com/bot/what_is_a_bot.html.
  43. ALBRITTON, Melvin. Swatting Spiders: an analysis of spider activity on the Internet. Tulane Journal of Technology and Intellectual Property, Spring, 2001, p. 137; SCHMELZER, Michael J. Protecting the Sweat of the Spider’s Brow: Current Vulnerabilities of Internet Search Engines. Boston University Journal of Science and Technology Law, Spring, 1997, p. 1; FISCHER, Steve. When Animals Attack: Spiders and Internet Trespass. Minnesota Intellectual Property Review, 2001, p. 139.
  44. Nas palavras de Lionel Revello "Les moteurs de recherche procèdent donc au référencement sans intervention humaine à la différence des annuaires." REVELLO, Maître Lionel. Un moteur de recherche a-t-il le droit, lors de la constitution de son index par les logiciels robots, de copier les pages d''un site sur son disque dur? Ne s''agit-il pas d''une copie "pirate"?, www.abondance.com/droit/copie.html.
  45. Par um exemplo de mecanismo de busca jurídico (ricerca motorino), cfr. www.diritto.it/cicerone.html.
  46. Cfr. relatório sobre o Music Bot da empresa BMI e o Digimarc’s MarcSpider em Digital Watermarking and Tracking, em www.webreference.com/content/watermarks/tracking.html.
  47. SEC to snoop for Fraud, Wired News, March 28, 2000, http://www.wired.com/techbiz/media/news/2000/03/3 5252. Para uma crítica a este tipo de prática por violar direitos constitucionais fundamentais de privacidade e liberdade de expressão veja FINLEY, Michelle. SEC Plan: Free Speech Violation?, Wired News, March 29, 2000, www.wired.com/politics/law/news/2000/03/35289.
  48. Os três Mandamentos Fundamentais da Robótica foram propostos por Isaac Asimov e John W. Campbell, Jr, autor e editor de ficção científica em 1942, no conto Runaround, mais tarde reimpresso na coletânea "Eu, Robô". Cfr. ASIMOV, Isaac. I, Robot, Grafton Books, London, 1968, pp. 33-51.
  49. CLARKE, Part I, nota supra.
  50. ASIMOV, Isaac. Robots and Empire. Londres: Grafton Books, 1985.
  51. CLARKE, Roger. Asimov’s Laws of Robotics – Implications for Information Technology – Part II. Computer 27,1, January, 1994, pp.57-66, também disponível em www http://www.anu.edu.au/people/Roger.Clarke/SOS/ Asimov.html.
  52. KOSTER, Martijn. Guidelines for Robot Writers, 1993, www.robotstxt.org/wc/guidelines.html.
  53. Os PER foram criados por consenso em junho de 1994 pelos membros da lista de correspondência [email protected]. Para maiores detalhes cfr. http://en.wikipedia.org/wiki/Robots.txt. Para uma tentativa de uniformização do protocolo, cfr. www.robotstxt.org/wc/norobots.html.
  54. As Meta Tags de exclusão são instruções incluídas em páginas HTML para que, sem intervenção do administrador, os robôs visitantes sejam informados de que não devem acessar aquela página. Sobre este assunto, cfr. www.robotstxt.org/wc/meta-notes.html.
  55. Vale ressaltar que mesmo Meta Tags podem ser utilizadas de forma desleal, cfr. Tribunale Ordinario di Roma, Ordinanza del 18 gennaio 2001, www.infogiur.com/giurisprudenza/2001_01_18_trib_roma. asp; e Tribunale di Milano, 9 febbraio 2002, www.legalionline.com/html/meta%20tag.html.
  56. VERBIEST, Thibault. La responsabilité des moteurs de recherche sur Internet en droit français et en droit belge. Lamy Droit de l''informatique, num.116- Juillet, 1999, www.juriscom.net/pro/1/ resp19990430.htm.
  57. WRIGHT, Benjamin e WINN, Jane K. The Law of Electronic Commerce. 3° Ed., 2000, § 2.05. In: MIDDLEBROOK, op. cit., p. 347.
  58. A sigla DISA foi mantida em nome da tradição e deriva do nome da associação em inglês: Data Interchange Standards Association, www.disa.org.
  59. A sigla UN/CEFACT deriva da denominação inglesa United Nation Center for Trade Facilitation and Electronic Business. Para maiores detalhes cfr. www.unece.org/cefact/.
  60. Por exemplo, cfr. o sítio da Mortgage Industry Standards Maintenance Organization em www.mismo.org e o da Automotive Industry Action Group em www.aiag.org.
  61. Cfr. National Institute of Standards and Technology – Use of Electronic Data Interchange Technology to Create Valid Obligations, 71 Comp. Gen. 109, dezembro, 1991.
  62. MIDDLEBROOK, op. cit., p. 347. Para uma breve discussão sobre a validade jurídica do documento eletrônico como meio de prova no direito brasileiro cfr. GICO JUNIOR, Ivo Teixeira. O Documento Eletrônico como Meio de Prova no Brasil. In: Novas Fronteiras do Direito na Informática e Telemática. Coordenador Luiz Olavo Baptista. São Paulo: Saraiva, 2001.
  63. Os Model Trading Partner Agreements são amplamente difundidos nos Estados Unidos. Cfr. Electronic Messaging Services Task Force of the Subcommitte on Electronic Commercial Practices of the Uniform Commercial Code of the ABA Section of Business Law; o Model Electronic Data Interchange Trading Partner Agreement and Commentary, 45 BUS. LAW. 1717, June, 1990; e Electronic Data Interchange and Information Technology Division of the ABA Section of Science and Technology, Model Electronic Payments Agreement and Commentary, ABA, 1992.
  64. MIDDLEBROOK, op. cit., p. 348.
  65. Como exemplos de comparadores de preços, mas que sabiamente não executam a compra em nome do usuário, vide www.bondfaro.com.br, www.buscape.com.br, www.shoppinguol.com.br; e www.jacotei.com.br.
  66. Para portais de leilão eletrônico, cfr. www.mercadolivre.com; www.arremate.com.br; e www.ebay.com.
  67. Cfr., a título de exemplo, MAES, et al. Agents that Buy and Sell. 42 Communication of the ACM 3, March, 1999, disponível em http://citeseer.ist.psu.edu/cache/papers/cs/20115/http:zSzzSzwww.cis.upenn.eduzSz~lee zSz00cis640zSzpaperszSzmaes.pdf/maes99agents.pdf; AXELROD, Robert M. The Evolution of Cooperation. New York: Basic Books, 1984; e GUTTMAN, Robert H. e MAES, Pattie, Agent-mediated Integrative Negotiation for Retail Electronic Commerce, MIT Media Laboratory, disponível em www-ec.njit.edu/~bartel/NegoPap/Guttman Maes98.pdf.
  68. SEC Staff Study, Trading Analysis of October 27-28, 1997, www.sec.gov/news/studies/tradrep.htm; SEC Division of Market Regulation, October 1987 Market Break 1-7 (Febr. 1988); e SEC. Electronic Trading Technology''s Impact on the Fixed-Income Markets, www.sec.gov/news/speech/speecharchive/1999/ spch313.htm.
  69. Cfr., a título de exemplo, os sítios da loja Submarino (www.submarino.com.br); Livraria Cultura (www.livrariacultura.com.br) e Banco do Brasil (www.bb.com.br).
  70. Disponível no endereço http://www.ulcc.ca/en/us/index.cfm?sec=1&sub=1u1.
  71. GREGORY, John D. The Uniform Electronic Commerce Act, Lex Electronica, vol. 6, n1, printemps 2000, www.lex-electronica.org/articles/v6-1/gregory.htm.
  72. UCITA, projeto de 1999, versão final de 2002, em www.law.upenn.edu/bll/archives/ulc/ucita/2002final.htm.
  73. UETA, projeto de 1999, em www.law.upenn.edu/bll/archives/ulc/uecicta/eta1299.htm
  74. EUA. Electronic Signaturesin Global and National Commerce Act of 2000, Pub. L. No. 106-229, 114 Stat. 464 (2000). Disponível no endereço www.ftc.gov/os/2001/06/esign7.htm. Em 2001 a FTC elaborou um relatório sobre esta lei, disponível no endereço www.ftc.gov/os/2001/06/esignreport.pdf.
  75. "a computer program or an electronic or other automated means used independently to initiate an action or respond to electronic records or performance in whole or in part, without review or action by an individual" Cfr. UETA, §2(6), p. 5.
  76. Cfr. UETA, §2 cmt. 5, p. 9.
  77. A expressão utilizada pelos autores "frolic", termo técnico-jurídico que se refere à situação em que o mandante não é responsável pelos atos do mandatário sob respondeat superior, e se contrapõe à situação de "detours", quando o mandante é responsável pelos atos do mandatário, pois apesar de o ato não ser exatamente o desejado pelo mandante, estava dentro das funções gerais do mandato. PROSSER, William A. The Law of Torts. 4th ed., §70, 1971. In: MIDDLEBROOK,op.cit., nota 32.
  78. MIDDLEBROOK,op.cit., p. 349.
  79. Cfr. UETA, §14, p. 43.
  80. Por exemplo, o UETA convalida uma transação click-through (em que o elemento volitivo se concretiza pelo simples ato de clicar o botão do mouse em um botão) anônima, mas, em comentário, os autores do projeto ressaltam que é possível que um processo click-through anônimo não represente declaração de vontade, invalidando a relação jurídica, e.g. quando um robô acessa um sítio web e obtém acesso a ele sem que seja necessário fornecer identificação ou indicar consentimento com alguma limitação ou obrigação. Cfr. UETA, §14, cmt. 2, p. 43.
  81. "[A]n electronic record or electronic signature is attributable to a person if it was the act of the person". Cfr. UETA, §9(a), p. 32.
  82. "[A] person’s actions include […] actions taken by an electronic agent, i.e., the tool, of the person". Cfr. UETA, §9, cmt. 1, p. 32.
  83. MIDDLEBROOK,op.cit., p. 350.
  84. CLAIRE, Patricia. E-sign of the Times. Disponível em www.willinghamcote.com/articles/pfc-esignact.pdf.
  85. Cfr. E-SIGN, §101(a)(2).
  86. Cfr. E-SIGN, §106(3): "without review or action by an individual at the time of the action or response."
  87. MIDDLEBROOK, op.cit., p. 351.
  88. Cfr. E-SIGN, §101(h): "A contract or other record relating to a transaction in or effecting interstate or foreign commerce may not be denied legal effect, validity or enforceability solely because its formation, creation or delivery involved the action of one or more electronic agents so long as the action of any such electronic agent is legally attributable to the person to be bound."
  89. Cfr. UCITA, §202(a), p. 30.
  90. Cfr. UCITA, §102(27), p. 6.
  91. "A person that uses an electronic agent that it has selected for making an authentication, performance, or agreement, including manifestation of assent, is bound by the operations of the electronic agent, even if no individual was aware of or review the agent’s operations or the results of the operations." UCITA, §107(d), p. 22.
  92. UCITA, §107, cmt. 5, p. 26, junho, 2000, draft Comments.

Autor

  • Ivo Teixeira Gico Junior

    Ivo Teixeira Gico Junior

    Doutor pela USP, Mestre com honra máxima pela Columbia Law School, Coordenador do Mestrado do Instituto Brasiliense de Direito Publico – IDP e sócio fundador do escritório Dino, Siqueira & Gico Advogados. Autor do livro "Cartel – Teoria Unificada da Colusão".

    Textos publicados pelo autor

    Fale com o autor


Informações sobre o texto

Como citar este texto (NBR 6023:2018 ABNT)

GICO JUNIOR, Ivo Teixeira. Responsabilidade civil dos robôs? Normas sociais de controle dos agentes eletrônicos. Revista Jus Navigandi, ISSN 1518-4862, Teresina, ano 13, n. 1838, 13 jul. 2008. Disponível em: https://jus.com.br/artigos/11485. Acesso em: 27 abr. 2024.