Desafios Legais da Inteligência Artificial

Post on 16-Oct-2021

7 views 0 download

Transcript of Desafios Legais da Inteligência Artificial

Desafios Legais da

Inteligência Artificial

Responsabilidade Civil

Proteção de Dados

Enrico RobertoPesquisador no Lawgorithm e no InternetLab. Doutorando na USP.

LL.M. na LMU de Munique.

Agenda

1. Inteligência Artificial

2. Desafios Legais

1. Responsabilidade

Civil

2. Enviesamento

Imagem: Pixabay

Parte I

Inteligência Artificial

IntroduçãoEm 2016, foram investidos entre 26 e 39 bilhões de dólares em inteligência artificial.

Esse valor triplicou desde 2013*

* Fonte: Mckinsey Fonte dos gráficos: Forbes

Introdução

Fonte dos gráficos: Forbes

ExemplosWired

:

The Guardian:

Telegraph:

Exemplos

CNET: Tech Crunch:

O que é Inteligência Artificial?

Por um lado, é uma disciplina com aportes da computação, neurociência, filosofia, dentre

outros campos

> Objetivo: construção de sistemas computacionais inteligentes

Por outro, é o objeto desta disciplina

> O que significa dizer que um sistema é inteligente?

> Em geral, envolve a capacidade de se adaptar a novas situações e a mudanças

nas circunstâncias

Fonte: ALMADA, Marco. “Interfaces entre Direito e IA”. Apresentação licenciada sob Creative Commons BY-NC-AS 4.0 Internacional.

Nosso Foco: machine learning

Autoaprendizagem

Capacidade de aprender de

forma autônoma a partir de

um conjunto de dados

Fonte da Imagem: Datatilsynet. “Artificial Intelligence and Privacy”. Disponível em: https://www.datatilsynet.no/globalassets/global/english/ai-and-privacy.pdf

Parte II

Questões Jurídicas

Níveis de AutonomiaEx.: Society of Autonomous Engineers e National Highway Safety

Administration; Carros Autônomos: 0 a 5

“Interação homem-máquina”: o homem responde no limite de sua

esfera de controle e atuação

Responsabilidade subjetiva: Na medida em que o homem for

culpável

Responsabilidade objetiva: Código de Defesa do Consumidor?

Responsabilidade por animais? Novo tipo?

Responsabilidade Civil

Objetiva

Foco no objeto

Risco

Diferentes pressupostos –

ex.: defeito

Nexo causal: objeto e dano

Subjetiva

Foco no sujeito

Conduta culposa

Imprudência, Negligência,

Imperícia

Nexo causal: culpa e dano

AutoaprendizagemCapacidade de aprender de forma autônoma a partir de um conjunto de dados

Responsabilidade subjetiva: limitada pela

autoaprendizagem: polo “máquina” da interação

Responsabilidade objetiva (CDC): Autoaprendizagem e

autonomia são desejadas. Podem ser chamadas de

defeito?

Paradigmas: Carro Autônomo vs. Robô Gaak

Black Box

Impossibilidade de compreender o

funcionamento de um algoritmo de

machine learning.

Deep Learning: uma técnica para

implementar machine learning

Responsabilidade subjetiva e

objetiva: nexo causal severamente

dificultado

Imagem: XKCD

Resultado

“Risco da Autonomia”

Soluções?

Transparência (Nova Iorque)

Seguro obrigatório (Reino Unido)

Soluções éticas (Alemanha)

Padrões de conduta (Califórnia)

Nova responsabilidade objetiva?

Analogias (animais, mandatários,

escravos)Imagem: SMBC Comics

Viés Algorítmico

Enviesamento humano na alimentação

dos dados

The Guardian

Reprodução de PadrõesPadrões incutidos nos dados alimentados, na forma

como são interpretados e na escolha do modelo vão

refletir-se nos resultados.

Padrões sociais – por exemplo, jurisprudência

majoritária – são reproduzidos e potencializados.

Machine Learning potencializa padrões: “70 vira

100” – Caso do Google Tradutor

Controle, transparência e responsabilidade sobre

o tratamento desses dados.

MIT Technology Review

“Avaliação de Impacto Algorítmico”

AI Now Institute (Universidade de Nova Iorque)

1. Avaliação dos sistemas automatizados existentes e propostos - impactos

potenciais na justiça, proporcionalidade, viés ou similares.

2. Processos de revisão de pesquisadores externospara medir ou rastrear

impactos ao longo do tempo;

3. Transparência pública divulgando normas e procedimentos em curso;

4. Audiências públicas para esclarecer preocupações e responder questões;

e

5. Os governos devem fornecer mecanismos aprimorados de garantia do

devido processo legal para indivíduos ou comunidades contestarem

avaliações inadequadas ou injustas.

fonte: lawgorithm.com.br

Obrigado!

Enrico Roberto

Twitter: @enricorbt

enrico.roberto@usp.br