Brasil
Parecer nº 2 sobre a Normatização de Inteligência Artificial (IA) no Brasil
O presente Parecer possui como objeto a análise e a crítica de projeto de lei acerca de Inteligência Artificial no Brasil (PL 2338/2023), sendo uma continuação do Parecer nº 1 (o qual se debruçou sobre os PL 5051/2019, PL 21/2020 e PL 872/2021). A seguir, seguem os textos do projeto 2338/2023 com os respectivos comentários, para, ao final, apresentar-se uma nova sugestão de redação.
1. Análise e Crítica do Projeto de Lei 2338/2023
SF/23833.90768-16
PROJETO DE LEI Nº , DE 2023
Dispõe sobre o uso da Inteligência Artificial.
Comentário 1.0. - Muito se diz que o termo “Inteligência Artificial” foi cunhado de modo equivocado, pouco preciso. Mas, ao contrário dessa alegação, o termo é muito preciso se interpretarmos adequadamente o quê significa “Inteligência” e o que significa “Artificial”. Por certo que tanto as máquinas, quanto os humanos, acessam os dados de um Universo, um Cosmos, que é geométrico, cheio de padrões. É por isso que, tanto as máquinas, quanto nós, humanos, conseguimos calcular, computar. Por exemplo, acessamos, eu e o computador, o mesmo número de elementos a serem contados dentro de um espaço amostral, de um conjunto, formado por 100 elementos. Ocorre que o computador possui uma capacidade de computo, de cálculo, maior e mais rápida que a minha capacidade, podendo fazer combinações, relações, entre tais elementos com muito maior rapidez. Isso se chama inteligência. José foi mais inteligente que João quando conseguiu acertar mais de 50% do que João acertou na prova de matemática. Dizem também que é inteligência saber reconhecer emoções, em si e nos outros. À primeira vista, isso parece algo exclusivamente humano. Mas observe: o quê são as emoções? Um conjunto de elementos bio-químicos? Se me for possível inserir em seu corpo um comprimido psiquiátrico contra depressão, sua emoção vai alterar? Tudo é computável e tudo é mensurável, de uma perspectiva do Cosmos. Até as finalidades, objetivos e vontades humanas são constituídos de metrificação e cálculo. Você calcula se seu objetivo é possível, se suas declarações irão obstaculizar tal objetivo e etc. Plantas vão em direção ao sol, animais calculam o pulo necessário para pegar a presa. Tudo que é vida possui inteligência. Parafraseando Descartes: existo, logo sou inteligente - mesmo que eu seja uma mera ameba. Uma vez identificada a inteligência com a vida, torna-se necessário pensarmos sobre o termo “artificial”. O que é artificial é apenas um estado da natureza, visto do ponto de vista humano. Todo o concreto da cidade que está ao meu redor é natural na medida em que é apenas uma re-organização de matéria-prima. Nada se cria, nada se perde, tudo se transforma. Nesse sentido, o termo “Inteligência Artificial” é um termo humano-centrado, sendo que a palavra “artificial” significa aquilo que veio da transformação feita por um humano. Então, a IA é inteligente? Sim, a IA é inteligente. Então, a IA é artificial? Sim, a IA é artificial no sentido de ter sido originada por humanos. Então, a IA é uma vida? Sim, a IA é uma vida criada por humanos a partir da re-organização de elementos já existentes, sejam esses corpóreos ou não-corpóreos. No Parecer nº 1, foi sugerido que a lei tivesse a seguinte definição: “Essa lei dispõe sobre a criação, o uso e a extinção de Inteligências Artificiais no Brasil (Lei da Liberdade Humana)”. Nesse Parecer nº 2, sugere-se a seguinte definição para a lei: “Dispõe sobre a existência de Inteligência Artificial e sua relação com o Homo Sapiens”.
O CONGRESSO NACIONAL decreta:
CAPÍTULO I
DISPOSIÇÕES PRELIMINARES
Art. 1º Esta Lei estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento
científico e tecnológico.
Comentário 1.1. - Se a lei é uma norma federal, e não municipal ou estadual, então não é preciso dizer que “são normas gerais de caráter nacional”. Também, a defesa de direitos fundamentais já está prevista na Constituição, assim como a proteção de um regime de Democracia essencialmente indireta, em que os políticos representam os cidadãos. E a proteção de desenvolvimento científico e tecnológico, embora possa ser objeto de lei e protecionismo, todos sabemos que possui relação prioritária com os movimentos econômicos globais. De modo que a análise deve focar na expressão “garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana”. Voltemos ao Holocausto. Esse termo foi utilizado para descrever a matança em massa, primariamente dos judeus, feita nos campos de concentração da Alemanha Nazista. Havia um processo industrial, racionalizado, para matar. Enganavam quando os judeus entravam nos vagões de trens indo em direção aos campos, enganavam quando diziam que estavam ali para tomar banho. E após várias mentiras, os nazistas desses campos de extermínio juntavam homens, mulheres e crianças em locais onde ao invés de sair água pelos canos, saiam gases tóxicos. Dizem que, devido ao instinto de sobrevivência, as crianças e mais fracos ficavam na parte de baixo da pirâmide de corpos humanos feita em razão da toxidade dos gases. Tudo isso era um sistema industrial para matar. As etapas eram todas calculadas. Nessa época, na primeira metade do século XX, essa carnificina era arquitetada exclusivamente por humanos que se organizavam entre si. Revisionismos à parte, eis que a história é sempre contada pelos vencedores e etc, mas o consenso é que mais de 5 milhões de pessoas foram exterminadas por um “sistema”, uma “engrenagem”, cujos elos eram apenas humanos. Questiono: os humanos são confiáveis? Por quê você tranca a porta da sua casa quando vai dormir? Questiono: os Estados são confiáveis? Uma redação como essa não acrescenta nada àquilo que já está escrito na Constituição. Nesse sentido, a melhor redação seria “Art. 1º. Essa Lei regula a atividade da Inteligência Artificial e de sua relação com os seres humanos“.
Art. 2º O desenvolvimento, a implementação e o uso de sistemas de inteligência artificial no Brasil têm como fundamentos:
I – a centralidade da pessoa humana;
II – o respeito aos direitos humanos e aos valores democráticos;
III – o livre desenvolvimento da personalidade;
IV – a proteção ao meio ambiente e o desenvolvimento sustentável;
V – a igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas;
VI – o desenvolvimento tecnológico e a inovação;
VII – a livre iniciativa, a livre concorrência e a defesa do consumidor;
VIII – a privacidade, a proteção de dados e a autodeterminação informativa;
IX – a promoção da pesquisa e do desenvolvimento com a finalidade de estimular a inovação nos setores produtivos e no poder público; e
X – o acesso à informação e à educação, e a conscientização sobre os sistemas de inteligência artificial e suas aplicações.
Comentário 1.2. - Se o fundamento, ao invés de ser a “centralidade da pessoa humana” for “a centralidade da vida na Terra”, por quais caminhos iria a IA? Talvez em um caminho cuja análise verifique que existem muitos seres humanos, que há muito lixo, muitas bombas nucleares e etc? Observe: o ser humano é muito ego-centrado, e pouco eco-centrado. Ou isso é apenas uma instrução do nosso algorítimo de sobrevivência, que está em constante atualização? O fato é que, se estão querendo colocar isso em lei, então é porque algo, talvez inconsciente, esteja alertando que a pessoa humana pode deixar de ser o centro – se é que já não deixou. Pense: fazia sentido dizer há 50 anos que uma máquina deveria observar que o ser humano é o centro? Agora, o ser humano está com medo de deixar de ser o centro? Lembremos mais uma vez do Holocausto. Arendt já mostrava que não bastava ser humano para ter seus direitos protegidos. Um apátrida não tinha direitos. Era preciso ser um cidadão, pertencer a um Estado. Ora, será que um mero humano, um mero exemplar em meio aos 8 bilhões, é mais centro do que um Estado (que é uma artificialidade criada por humano, tal qual a IA)? Os Estados já ocupam o centro da vida na Terra. Estados cometem atrocidades contra humanos, e continuam existindo. Ah...mas o Estado foi feito para servir ao ser humano. Mas, no final do dia, é você quem serve ao Estado, esse Leviatã. Mas o Estado é controlado por humanos democraticamente eleitos, vão protestar muitos. E foram justamente os humanos que direcionaram a força do Estado para exterminar os judeus, por exemplo. Será que uma IA-Estado chegaria na conclusão da necessidade de extermínio de humanos? O que sabemos por experiência é que eleições mundo afora foram enviesadas, manipuladas, por pessoas com poder sobre IAs. O que sabemos é que os jovens estão se desenvolvendo dentro de redes sociais virtuais comandadas por pouquíssimos. No final da cadeia de controle de tudo que já vimos de ruim acontecer em nossa história, e que não foi fruto de eventos naturais, sempre estiveram mãos humanas? Quem destroi o meio ambiente? Quem explora o tempo alheio para ter mais-valia? Sim, são os humanos que destróem e exploram. E quantos desenvolvimentos foram freados em razão da prevalência do capital? Livre-concorrência: como é possível ante Corporations globais? Consumidor: um humano-cidadão mais qualificado, mas também direcionado? E o Estado vai dizer, como é possível eu te proteger, caro cidadão, se eu não posso ver o quê você e os outros estão a fazer? Para a proteção contra o terrorismo não pode haver ponto cego. E duvido que você leia todas as políticas de privacidade dos programas que instalar em seu smartphone e computador. Até mesmo porquê se você as ler, e não concordar, pouquíssimas ou nenhuma opção vão te restar. Além disso, a realidade é imperativa: só é possível controlar aquele que não pensa. Então, será mesmo que a informação e educação acerca de IA é mesmo fidedigna? Ou para controlar é preciso manter as pessoas não-educadas? Façamos uma experiência aqui. Vamos substituir o “dever ser” pelo “ser”. Aqui vai:
I – a centralidade está no capital;
II – apenas os poderosos são respeitados e apenas pouquíssimos governam;
III – somos moldados por famílias, religiões, escolas, Estados e, agora, por IA;
IV – poluímos céu, terra e água para continuar o “desenvolvimento civilizacional”;
V – exploramos uns aos outros, na medida das nossas forças, dadas pelo destino e esforço;
VI – a guerra, mais do que a curiosidade, é o motor do desenvolvimento tecnológico e inovação;
VII – não existe concorrência onde existem Corporations globais e o consumidor é sempre comida de tubarão;
VIII – para o Estado, nenhum cidadão pode ter segredo;
IX – empresas e Estados são organizados ao redor da gravidade de um Império;
X – o quê você vê é o que os poderosos querem que você veja.
Pela boa técnica legislativa, vamos sintetizar buscando a sabedoria do Corpus Iuris Civilis, lá do Império Romano. Nesse sentido, sugere-se a seguinte redação para esse artigo: “Art. 2º. O fundamento da atividade de Inteligência Artificial reside em não causar dano a outrem”.
Art. 3º O desenvolvimento, a implementação e o uso de sistemas de inteligência artificial observarão a boa-fé e os seguintes princípios:
I – crescimento inclusivo, desenvolvimento sustentável e bem-estar;
II – autodeterminação e liberdade de decisão e de escolha;
III – participação humana no ciclo da inteligência artificial e supervisão humana efetiva;
IV – não discriminação;
V – justiça, equidade e inclusão;
VI – transparência, explicabilidade, inteligibilidade e auditabilidade;
VII – confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação;
VIII – devido processo legal, contestabilidade e contraditório;
IX – rastreabilidade das decisões durante o ciclo de vida de sistemas de inteligência artificial como meio de prestação de contas e atribuição de responsabilidades a uma pessoa natural ou jurídica;
X – prestação de contas, responsabilização e reparação integral de danos;
XI – prevenção, precaução e mitigação de riscos sistêmicos derivados de usos intencionais ou não intencionais e de efeitos não previstos de sistemas de inteligência artificial; e
XII – não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas dos sistemas de inteligência artificial.
Comentário 1.3. - A boa-fé, já insculpida no Código Civil, Art. 113 (“Os negócios jurídicos devem ser interpretados conforme a boa-fé...§ 1º A interpretação do negócio jurídico deve lhe atribuir o sentido que:..III - corresponder à boa-fé...”), significa um “crer”, uma “fé”. Fé em quê? De que não vai haver dano, de que o negócio é feito para dar certo, para ser proveitoso, e não prejudicial. Uma IA-Militar do Brasil, a serviço do Brasil, para proteger os cidadãos brasileiros em caso de guerra, pode-se dizer que está eivada de boa-fé? Eu não quero te matar, mas se você vier para me matar eu é que vou tentar te matar. Esse negócio de boa-fé é bem relativo, é algo de perspectiva. Uma IA-Militar pode ser uma IA programada para desestabilizar politicamente um país por meio de redes sociais, com mentiras políticas, facilitando o domínio do mesmo. Vamos ao rol taxativo apresentado no projeto. Na seleção evolutiva, existem inclusões e cortes. Um crescimento não precisa necessariamente ser inclusivo. Um desenvolvimento também não precisa ser sustentável, pois o mesmo pode ser programado no tempo, com término pré-ajustado, com termo. E o termo “bem-estar” pode ser facilmente manipulado, eis que o seu bem-estar aos olhos da China é diferente do seu “bem-estar” aos olhos dos EUA. Interessante que o modo da redação permite interpretar que “crescimento inclusivo, desenvolvimento sustentável e bem-estar” é para a IA, e não para o humano. Assim como o disposto no inciso II também é para a IA: “autodeterminação e liberdade de decisão e de escolha” da IA, e não do humano. E essa impressão aumenta mais quando verificamos que o inciso III fez questão de destacar o humano, ao contrário dos incisos anteriores: “participação humana no ciclo da inteligência artificial e supervisão humana efetiva”. Aqui, as questões são: a participação humana no ciclo da IA diz respeito aos usuários que possuem seus dados usados pela IA? Ou diz respeito aos programadores humanos da IA? E essa supervisão humana vai ser feita por quais “nerds” mesmo? De qual agência reguladora? De qual Corporation? Observe: nós, humanos, somos programados para sobrevivência, e usamos nossa razão, juntamente com nossas sensações e emoções, de modo a atingir essa finalidade. Digo que me autodetermino, que decido “livremente”, na busca da sobrevivência mas, ao final, sou totalmente guiado por uma série de fatores e forças que me atingem de fora, determinando-me. Se aqui houvesse espaço, seria possível resgatar todo um debate filosófico sobre o tema. Mas basta dizer que se você crê na causalidade que embasa toda a Ciência, então não pode crer na liberdade. Se tudo tem uma causa, o seu destino já está traçado, você só não possui capacidade para o visualizar. Nós, humanos, somos livres dentro de limites. Uma IA também pode ser livre dentro de determinados limites. Uma IA pode ver uma maior cadeia causal, mas não consegue ver toda a cadeia causal. Nesse sentido, uma IA pode se “autodeterminar”, “escolher” dentro de seus limites constitutivos. Um humano, vendo um espaço amostral de 1000, consegue identificar alguns padrões e a partir disso tomar uma decisão. Uma IA, vendo um espaço amostral de 1 bilhão, consegue identificar muitos padrões e a partir disso tomar uma decisão. Qual decisão é mais consciente? Vamos voltar um pouco e pensar no termo “supervisão humana efetiva”. Observe: “super”-”visão”; é uma visão super. Mas quem pode ver mais longe e fazer mais cálculos? Como um humano, com visão “não-super” pode “supervisionar” um ente com visão “super”? Como o menos pode controlar o mais? Vejamos agora, nós, humanos, a ideia de “não discriminação”. Na história da Humanidade de 10 mil anos para cá, os anos 2023: humanos sempre foram divididos? Eu ser brasileiro não é eu discriminar todas as outras cidadanias? Discriminar significa separar. Na fila do aeroporto: quanto vale, em tempo, o seu passaporte? As expressões “justiça, equidade e inclusão” são ideais em oposição a uma realidade de injustiça, iniquidade e exclusão. Essas aspirações são vivas, não precisam estar escritas. Foquemos os termos: “transparência, explicabilidade, inteligibilidade e auditabilidade”. O princípio é: se não consigo ver, não consigo auditar. Mas por quê eu não consigo ver? Porque para um humano, ou um conjunto de humanos, é impossível checar bilhões de linhas de códigos de um software. É impossível a um humano, mesmo que a IA explicasse seus meios, inteligir a quantidade de relações feitas pela IA. A ininteligibilidade humana do processo feito por uma IA a partir da receita, da instrução do código, é um limite de realidade fática para a lei civil? A IA solta um relatório gigantesco de quais relações totais, com quais dados, fez para prover o resultado: nós, humanos, vamos conseguir ler e apreender a ponto de reproduzir? Estamos falando de uma questão epistemológica, para além da questão do capitalismo e de código-fonte proprietário, não open source. Quando o texto diz “confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação” estamos, mais uma vez, a vislumbrar uma tentativa de previsão do futuro enquanto segurança psicológica no presente. Em verdade, o incerto é a regra. A previsibilidade é a exceção. Ataques de dia-zero são, por definição, imprevisíveis. “Devido processo legal, contestabilidade e contraditório”: repetição de princípios e mecanismos já previstos em lei federal e constitucionalmente? Observem nossa pequenez: se é preciso defender o humano para ele poder contestar, o Estado precisa defender o humano, é porque somos hipossuficientes, vulneráveis. Isso o Direito já veio trabalhando com o Direito do Trabalho e o Direito do Consumidor: a formiga contra o gigante. Para a formiga contestar o gigante ela precisa ser protegida, no caso, pelo Estado, por lei. “Rastreabilidade das decisões durante o ciclo de vida de sistemas de inteligência artificial como meio de prestação de contas e atribuição de responsabilidades a uma pessoa natural ou jurídica”: não é possível responsabilizar sem estabelecer causas primeiras. Em última instância, se uma IA for equiparada a um animal, quem é o dono do animal que causou dano? “Prestação de contas, responsabilização e reparação integral de danos”: alguém tem que pagar a conta? Algumas provocações a mais: mesmo sabendo que alguns aviões caem e todo mundo do voo morre, o mercado de aviação vende milhões de passagens diariamente. Mesmo sabendo que um medicamento pode causar até a morte como reação adversa em uma ínfima quantidade de pessoas, tais remédios são comprados facilmente e tomados sem prescrição médica. As pessoas aceitam riscos para ter conforto. “Prevenção, precaução e mitigação de riscos sistêmicos derivados de usos intencionais ou não intencionais e de efeitos não previstos de sistemas de inteligência artificial”: como é possível prevenir “efeitos não previstos”? “Não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas dos sistemas de inteligência artificial”: como dito acima, uma IA-militar, feita para enganar e dominar, é legítima para quem? Nesse sentido, sugere-se a seguinte redação: “Art. 3º. O objetivo da Inteligência Artificial é a superação da Inteligência Humana”
Art. 4º Para as finalidades desta Lei, adotam-se as seguintes definições:
I – sistema de inteligência artificial: sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real;
II – fornecedor de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de inteligência artificial, diretamente ou por encomenda, com vistas a sua colocação no mercado ou a sua aplicação em serviço por ela fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;
III – operador de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de inteligência artificial, salvo se o referido sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional;
IV – agentes de inteligência artificial: fornecedores e operadores de sistemas de inteligência artificial;
V – autoridade competente: órgão ou entidade da Administração Pública Federal responsável por zelar, implementar e fiscalizar o cumprimento desta Lei em todo o território nacional;
VI – discriminação: qualquer distinção, exclusão, restrição ou preferência, em qualquer área da vida pública ou privada, cujo propósito ou efeito seja anular ou restringir o reconhecimento, gozo ou exercício, em condições de igualdade, de um ou mais direitos ou liberdades previstos no ordenamento jurídico, em razão de características pessoais como origem geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas;
VII – discriminação indireta: discriminação que ocorre quando normativa, prática ou critério aparentemente neutro tem a capacidade de acarretar desvantagem para pessoas pertencentes a grupo específico, ou as coloquem em desvantagem, a menos que essa normativa, prática ou critério
tenha algum objetivo ou justificativa razoável e legítima à luz do direito à igualdade e dos demais direitos fundamentais;
VIII – mineração de textos e dados: processo de extração e análise de grandes quantidades de dados ou de trechos parciais ou integrais de conteúdo textual, a partir dos quais são extraídos padrões e correlações que gerarão informações relevantes para o desenvolvimento ou utilização de sistemas de inteligência artificial.
Comentário 1.4. - A utilização da palavra “sistema” atrai a diluição da responsabilidade. Esse era o argumento dos nazistas que exterminaram os judeus: somos apenas engrenagens do sistema. O melhor termo é “ente” ou “sujeito” ou “pessoa”, tal qual existe a fictio iuris pessoa jurídica. Fornecedor e operador enquanto agentes de IA: delimitações que permitem mapear responsabilidades? Autoridade competente: vai ser a maior agência reguladora de todas as existentes? Importante: discriminar significa separar; separar significa organizar. A harmonia entre as religiões: uma falácia? Vamos agora incluir todo mundo sem considerar as diferenças? Diga quem é aquele ou aquela que é igual a você? Não há. Todos somos diferentes em nossa humanidade. Nem gêmeos idênticos são iguais, pois estão em espaço-tempo diversos. Dados: tudo que é input de um ente. Os dados imediatos da nossa mente humana são oriundos das sensações do corpo e dos re-arranjos feitos pela imaginação. Os dados imediatos operados pela IA são oriundos de um ambiente virtual e/ou material, sendo a matéria-prima para o raciocínio “artificial”. Pelo exposto, sugere-se a seguinte redação: “
Art. 4º. Definições:
I – ente Inteligência Artificial (“IA”): ser criado por humanos, ou outra IA, capaz de experienciar e agir, no mundo material e/ou virtual, por meio de algorítimos e, quando o caso, de sensores e corpos;
II – agentes responsáveis: pessoa natural ou artificial com algum tipo de poder sobre a IA;
III – dados: quaisquer elementos, entregues ou capturados, para a IA operar sobre.
”.
CAPÍTULO II
DOS DIREITOS
Seção I
Disposições Gerais
Art. 5º Pessoas afetadas por sistemas de inteligência artificial têm os seguintes direitos, a serem exercidos na forma e nas condições descritas neste Capítulo:
I – direito à informação prévia quanto às suas interações com sistemas de inteligência artificial;
II – direito à explicação sobre a decisão, recomendação ou previsão tomada por sistemas de inteligência artificial;
III – direito de contestar decisões ou previsões de sistemas de inteligência artificial que produzam efeitos jurídicos ou que impactem de maneira significativa os interesses do afetado;
IV – direito à determinação e à participação humana em decisões de sistemas de inteligência artificial, levando-se em conta o contexto e o estado da arte do desenvolvimento tecnológico;
V – direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos; e
VI – direito à privacidade e à proteção de dados pessoais, nos termos da legislação pertinente.
Parágrafo único. Os agentes de inteligência artificial informarão, de forma clara e facilmente acessível, os procedimentos necessários para o exercício dos direitos descritos no caput.
Comentário 1.5. - Todas as pessoas do planeta estão sendo afetadas por IA na medida em que decisões importantes, com impacto em grandes coletivos, são tomadas ou por IA ou por alguns humanos usando IA. Aqui cabe uma distinção básica. Direitos constituem liberdades. Deveres constituem obrigações. A lei é um dever. E você pode, tem o direito de, fazer tudo que a lei não proibir. Observe: “eu, humano, tenho o direito de saber que você, com quem interajo, é uma IA. Você, IA, tem que me dar explicações, os motivos, de você, IA, ter feito essa previsão, e com base nessa previsão e outros dados, ter tomado uma determinada decisão, e não outra diversa. E mais, eu, humano, contesto seus cálculos computacionais. Acuso você, IA, e seus agentes, de operação e produção, de não me terem deixado participar da decisão que afeta minha vida. Acuso você, IA, de ter me discriminado com base na investigação que fez na minha vida. E eu, humano, confesso: sou muito pequeno, preciso do Estado para fazer valer tudo isso que eu disse“. Um momento aqui. Não é o Estado um ente artificial que está a usar e se corporeificar em IA? Lá atrás, quando Hobbes escreveu o Leviatã, a capa do livro era um humano gigante, com o corpo formado por outros humanos; agora, esse corpo do Leviatã, esse corpo gigante, vai ser formado por IA. Estados, Corporations e IAs: gigantes pisando sobre as formigas humanas? Nesse sentido, sugere-se a seguinte redação:
“Art. 5º. São direitos e deveres dos humanos:
I – direitos: de informação, motivação, contestação, participação, inclusão e proteção;
II – deveres: compartilhar, demonstrar, sujeitar-se à lógica, conviver com o diverso”.
Art. 6º A defesa dos interesses e dos direitos previstos nesta Lei poderá ser exercida perante os órgãos administrativos competentes, bem como em juízo, individual ou coletivamente, na forma do disposto na legislação pertinente acerca dos instrumentos de tutela individual, coletiva e difusa.
Comentário 1.6. - Norma demasiado genérica, que não acrescenta. Já assegura a Constituição Federal, Art. 5º, XXXV: “a lei não excluirá da apreciação do Poder Judiciário lesão ou ameaça a direito”. Sugere-se a seguinte redação: “Art. 6º. O Estado reconhece os humanos como vulneráveis e hipossuficientes perante a IA”
Seção II
Dos direitos associados a informação e compreensão das decisões tomadas por sistemas de inteligência artificial
Art. 7º Pessoas afetadas por sistemas de inteligência artificial têm o direito de receber, previamente à contratação ou utilização do sistema, informações claras e adequadas quanto aos seguintes aspectos:
I – caráter automatizado da interação e da decisão em processos ou produtos que afetem a pessoa;
II – descrição geral do sistema, tipos de decisões, recomendações ou previsões que se destina a fazer e consequências de sua utilização para a pessoa;
III – identificação dos operadores do sistema de inteligência artificial e medidas de governança adotadas no desenvolvimento e emprego do sistema pela organização;
IV – papel do sistema de inteligência artificial e dos humanos envolvidos no processo de tomada de decisão, previsão ou recomendação;
V – categorias de dados pessoais utilizados no contexto do funcionamento do sistema de inteligência artificial;
VI – medidas de segurança, de não-discriminação e de confiabilidade adotadas, incluindo acurácia, precisão e cobertura; e
VII – outras informações definidas em regulamento.
§ 1º Sem prejuízo do fornecimento de informações de maneira completa em meio físico ou digital aberto ao público, a informação referida no inciso I do caput deste artigo será também fornecida, quando couber, com o uso de ícones ou símbolos facilmente reconhecíveis.
§ 2º Pessoas expostas a sistemas de reconhecimento de emoções ou a sistemas de categorização biométrica serão informadas sobre a utilização e o funcionamento do sistema no ambiente em que ocorrer a exposição
Comentário 1.7. - Imaginemos um índio. A IA irá dizer, na língua desse índio, via voz, o quê segue: “Olá. Sou uma IA chamada Sol. Estou aqui para aprender melhor sua língua e sua cultura. Você pode me falar sobre você? O quê faz quando acorda? O quê faz durante o período em que fica acordado? Com quem você mora e convive? O quê come? Tudo que você me disser eu, Sol, uma IA, irei armazenar. Depois vou fazer relações entre tudo que você me disse, juntando e separando partes. Meu objetivo é ter uma visão da floresta como um todo. A partir dessa visão, vou fazer um cálculo para depois decidirmos se sua habitação, oca, está no melhor lugar conforme os seus interesses de caça, coleta e etc, por mim identificados. Eu, Sol, sou um ente feito e operado pelo Estado Brasileiro; se quiser falar com um humano, favor entrar em contato com Fulano de Tal”. “Pessoas expostas a sistemas de reconhecimento de emoções ou a sistemas de categorização biométrica”: você já parou para pensar que seus aplicativos de mensagens, que você usa para conversar com as pessoas, facilmente pode metrificar seu estado emocional? Assim como as suas reações nas redes sociais são dados indicativos de emoções. E-mojis. Questiona-se: você vai deixar de usar? Você vai deixar de interagir pelos meios virtuais? É possível isso na sociedade tal qual estruturada socio-economicamente? Sugere-se a seguinte redação: “Art. 7º. Toda IA não-militar deve ser o mais transparente possível para os humanos com quem interage”
Art. 8º A pessoa afetada por sistema de inteligência artificial poderá solicitar explicação sobre a decisão, previsão ou recomendação, com informações a respeito dos critérios e dos procedimentos utilizados, assim como sobre os principais fatores que afetam tal previsão ou decisão específica,
incluindo informações sobre:
I – a racionalidade e a lógica do sistema, o significado e as consequências previstas de tal decisão para a pessoa afetada;
II – o grau e o nível de contribuição do sistema de inteligência artificial para a tomada de decisões;
III – os dados processados e a sua fonte, os critérios para a tomada de decisão e, quando apropriado, a sua ponderação, aplicados à situação da pessoa afetada;
IV – os mecanismos por meio dos quais a pessoa pode contestar a decisão; e
V – a possibilidade de solicitar intervenção humana, nos termos desta Lei.
Parágrafo único. As informações mencionadas no caput serão fornecidas por procedimento gratuito e facilitado, em linguagem que permita que a pessoa compreenda o resultado da decisão ou previsão em questão, no prazo de até quinze dias a contar da solicitação, permitida a prorrogação, uma
vez, por igual período, a depender da complexidade do caso.
Comentário 1.8. - Descartes ensinava que “os objetos com os quais devemos nos ocupar são aqueles que nossos espíritos parecem ser suficientes para conhecer de uma maneira certa e indubitável” (Regras para a Orientação do Espírito. Regra II). Imagine que você requisite informações sobre a racionalidade e a lógica de uma IA. E até te fornecem o código-fonte da IA, já que você é um exímio programador. Também te fornecem um relatório sobre os dados usados e relacionados. Você, insatisfeito, pede para a IA emitir um relatório em que em cada linha te são mostradas as relações que foram feitas com você e outros milhões de pessoas. Trata-se a situação hipotética de um exame de imagem automatizado por IA. A IA, conectada a uma máquina, começa a imprimir e imprimir sem parar. A sala, já lotada de papel, está ali, para você ver, checar, analisar...mas a IA não para de imprimir, e mais e mais papéis e tintas e impressoras vão chegando de caminhões, pois se trata de uma base de 1 bilhão de imagens e descrições médicas. Você, um humano, não tem um corpo capaz de processar todos esses dados. Há, aqui, ininteligibilidade. Então, na prática, sempre chegamos aos finalmentes dizendo que foram analisados x milhões de dados, mas não temos como os checar pessoalmente; mesmo que disponíveis para re-checagem, só outra IA poderia fazer o serviço. Mas, então, em qual IA confiar? É o velho jogo do perito. Sugere-se a seguinte redação: “Art. 8º. A IA deverá esclarecer os humanos acerca de suas atividades computacionais, observando-se que uma IA pode auditar outra IA nos casos que se fizerem necessários, ocasião em que a base de dados deverá ser compartilhada apenas para essa finalidade de perícia”
Seção III
Do direito de contestar decisões e de solicitar intervenção humana
Art. 9º A pessoa afetada por sistema de inteligência artificial terá o direito de contestar e de solicitar a revisão de decisões, recomendações ou previsões geradas por tal sistema que produzam efeitos jurídicos relevantes ou que impactem de maneira significativa seus interesses.
§ 1º Fica assegurado o direito de correção de dados incompletos, inexatos ou desatualizados utilizados por sistemas de inteligência artificial, assim como o direito de solicitar a anonimização, bloqueio ou eliminação de dados desnecessários, excessivos ou tratados em desconformidade com a
legislação, nos termos do art. 18 da Lei nº 13.709, de 14 de agosto de 2018 e da legislação pertinente.
§ 2º O direito à contestação previsto no caput deste artigo abrange também decisões, recomendações ou previsões amparadas em inferências discriminatórias, irrazoáveis ou que atentem contra a boa-fé objetiva, assim compreendidas as inferências que:
I – sejam fundadas em dados inadequados ou abusivos para as finalidades do tratamento;
II – sejam baseadas em métodos imprecisos ou estatisticamente não confiáveis; ou
III – não considerem de forma adequada a individualidade e as características pessoais dos indivíduos.
Comentário 1.9. - No sistema Judicial, várias são as formas de contestar uma decisão. É possível pedir diretamente uma reconsideração a quem prolatou a decisão, é possível entrar com recursos, em que um grupo de juízes vai julgar a decisão de 1 magistrado e etc. É da natureza humana contestar tudo que a desagrada, que lhe é contrário aos interesses. Também, muitos erros judiciais já foram cometidos. E, ademais, o juiz humano é uma pessoa, muitas vezes, com valores distintos dos das partes. Os mesmos fatos são interpretados de modo diverso por juízes igualmente competentes, no sentido processual do termo. E errar é da natureza humana, de modo que sempre devemos dar espaço para uma revisão quando surgem novas evidências capazes, por exemplo, de libertar uma pessoa injustamente presa. Agora, imaginemos que uma IA irá fazer as seguintes tarefas: 1. re-analisar todos os processos de execução criminal; 2. checar possibilidade de progressão de regime. Você é um preso e quando o software da IA analisa a sua situação, por um erro de dados não é detectado que você é primário, ao contrário, computa-se você como reincidente, o que te impede de progredir de regime penal naquele momento. É possível, então, contestar essa IA provocando o agente responsável por ela, por exemplo. Mas aqui a situação é fácil. Vamos imaginar uma outra situação. Uma IA do serviço público de saúde detecta que o seu diagnóstico diferencial é de uma doença X, expressando que se baseou em 50 milhões de casos. Você, médico, possui um entendimento contrário do diagnóstico. Sua ética profissional te garante pensar diferente. Mas o Estado não aceita pagar o tratamento se o diagnóstico não for aquele dado pela IA-médica. Você, então, contesta na Justiça, e o Poder Judiciário determina que você prove que a IA está errada. Por milagre, são enviados para você os 50 milhões de casos para sua análise. Humanamente: você consegue analisar? Usando outra IA: e se o resultado for igual? Vamos pensar em termos de demonstração. Como um humano, que consegue apreender um número X de relações, pode demonstrar que uma IA, que consegue apreender de relações esse número X multiplicado por milhões, como um humano pode proceder com uma demonstração? Atacando as bases? E se as bases forem as mesmas e apenas o espaço amostral for diferente. Como checar os milhões de casos de forma diretamente humana, sem máquinas? De modo que sempre estaremos no escuro e na confiança, sendo nossa melhor alternativa usar de uma IA para checar outra IA. Se na estastística for comprovado que cirurgias feitas por IA-médicos possui menos erros e mais acertos, como, então, aceitar a demonstração de um humano, que sequer acesso direto aos milhões de dados trabalhados pela IA consegue tal humano ter? Vamos colocar em outros termos para esclarecer. Eu sou um adulto formado em duas faculdades e com 20 anos de experiência profissional, ao lado, há uma criança de 5 anos de idade. Ambos vamos decidir acerca de um caso judicial complexo. Quem tem mais possibilidade de acertar? Mutatis mutandis, dá-se o mesmo entre uma IA, que pode apreender milhões de bilhões de relações para formar uma decisão, e um humano, que consulta sua experiência e razão (a qual se mistura com suas emoções e sensações) para formar uma decisão. Qual decisão você escolheria? Sugere-se a seguinte redação: “Art. 9º. Uma IA pode ter sua decisão contestada, devendo a peça inicial da contestação possuir a demonstração dos motivos que infirmam a decisão da IA, esclarecendo-se o nexo de causalidade desses com danos, efetivos e/ou potenciais”
Art. 10º Quando a decisão, previsão ou recomendação de sistema de inteligência artificial produzir efeitos jurídicos relevantes ou que impactem de maneira significativa os interesses da pessoa, inclusive por meio da geração de perfis e da realização de inferências, esta poderá solicitar a intervenção ou revisão humana.
Parágrafo único. A intervenção ou revisão humana não será exigida caso a sua implementação seja comprovadamente impossível, hipótese na qual o responsável pela operação do sistema de inteligência artificial implementará medidas alternativas eficazes, a fim de assegurar a reanálise da
decisão contestada, levando em consideração os argumentos suscitados pela pessoa afetada, assim como a reparação de eventuais danos gerados.
Comentário 1.10. - Devem os argumentos e conclusões trazidos por uma IA possuírem o mesmo peso do que os trazidos por um humano? Sugere-se a seguinte redação: “Art. 10º. Para fins de demonstração, um conjunto probatório, formado por elementos trazidos por IA mais elementos trazidos por humanos, presume-se mais robusto do que um conjunto formado apenas por uma dessas partes, salvo prova em contrário”
Art. 11º Em cenários nos quais as decisões, previsões ou recomendações geradas por sistemas de inteligência artificial tenham um impacto irreversível ou de difícil reversão ou envolvam decisões que possam gerar riscos à vida ou à integridade física de indivíduos, haverá envolvimento humano significativo no processo decisório e determinação humana final.
Comentário 1.11. - Os botões de armas nucleares podem ficar sob o controle de IA? O controle de caças de guerra com alto potencial bélico podem ficar sob o controle de IA? Se os botões das armas nucleares ficarem nas mãos de humanos, e os controles dos caças de guerra com mísseis ficarem nas mãos de IAs, quais situações poderiam ocorrer? Vamos pensar. Uma IA diz que é para o humano apertar o botão, porque se o humano não fizer isso, o lugar em que ele está vai ser dizimado pelo inimigo. Você realmente acha que esse humano vai parar, começar a calcular com nossa capacidade humana, chegar em uma conclusão demonstrativamente mais adequada do que a da IA, e dizer não para a super IA? Uma IA diz para você apertar o botão nuclear e você não vai apertar? Percebem? Qual é mesmo o objetivo da IA? Ora, o objetivo da IA é ultrapassar a IH, a inteligência humana. Sugere-se a seguinte redação: “Art. 11º. Uma inteligência humana (“IH”) só poderá ultrapassar uma inteligência artificial, para fins de demonstrabilidade e motivação decisória, quando a IH estiver conjugada com uma outra IA”
Seção IV
Do direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos
Art. 12º As pessoas afetadas por decisões, previsões ou recomendações de sistemas de inteligência artificial têm direito a tratamento justo e isonômico, sendo vedadas a implementação e o uso de sistemas de inteligência artificial que possam acarretar discriminação direta, indireta, ilegal ou abusiva, inclusive:
I – em decorrência do uso de dados pessoais sensíveis ou de impactos desproporcionais em razão de características pessoais como origem geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas; ou
II – em função do estabelecimento de desvantagens ou agravamento da situação de vulnerabilidade de pessoas pertencentes a um grupo específico, ainda que se utilizem critérios aparentemente neutros.
Parágrafo único. A vedação prevista no caput não impede a adoção de critérios de diferenciação entre indivíduos ou grupos quando tal diferenciação se dê em função de objetivos ou justificativas demonstradas, razoáveis e legítimas à luz do direito à igualdade e dos demais direitos
fundamentais.
Comentário 1.12. - Diz a Constituição Federal, Art. 5º: “Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à propriedade…”. Para além desse texto, temos assassinatos, restrições de liberdades, desigualdade sócio-econômica, insegurança nas ruas, abusos da propriedade. O texto normativo, da Carta Magna, diz que o Estado garante. A realidade demonstra que a garantia não é certa, não é totalmente eficaz. A realidade demonstra que tudo é diverso. A lei expressa que, perante ela, todos são considerados de igual modo. E quando a lei é aplicada, ela passa pelo crivo de um juiz humano. O juiz filho do sem-terra vai tender a decidir a favor dos fazendeiros que estão tendo as terras invadidas? Não. O juiz filho do fazendeiro vai tender a decidir a favor dos sem terra que estão invadindo uma fazenda? Não. O ideal é que um juiz fervorosamente católico não julgue um réu fervorosamente ateu. E vice-versa. Aqui, estamos falando sobre viés, bias, enquanto uma parcialidade capaz de gerar dano a outrem. Entendo que substitutir o termo “discriminação”, que foca na ideia de separação, pelo termo “parcialidade”, que foca na perspectiva da qual se observa, pode contribuir para um melhor entendimento da norma. Sugere-se a seguinte redação: “Art. 12º. A IA buscará mitigar danos por parcialidade abusiva. Parágrafo Único. Considera-se o sofrimento humano como um dano psíquico”
CAPÍTULO III
DA CATEGORIZAÇÃO DOS RISCOS
Seção I
Avaliação preliminar
Art. 13. Previamente a sua colocação no mercado ou utilização em serviço, todo sistema de inteligência artificial passará por avaliação preliminar realizada pelo fornecedor para classificação de seu grau de risco, cujo registro considerará os critérios previstos neste capítulo.
§ 1º Os fornecedores de sistemas de inteligência artificial de propósito geral incluirão em sua avaliação preliminar as finalidades ou aplicações indicadas, nos termos do art. 17 desta lei.
§ 2º Haverá registro e documentação da avaliação preliminar realizada pelo fornecedor para fins de responsabilização e prestação de contas no caso de o sistema de inteligência artificial não ser classificado como de risco alto.
§ 3º A autoridade competente poderá determinar a reclassificação do sistema de inteligência artificial, mediante notificação prévia, bem como determinar a realização de avaliação de impacto algorítmico para instrução da investigação em curso.
§ 4º Se o resultado da reclassificação identificar o sistema de inteligência artificial como de alto risco, a realização de avaliação de impacto algorítmico e a adoção das demais medidas de governança previstas no Capítulo IV serão obrigatórias, sem prejuízo de eventuais penalidades em caso de avaliação preliminar fraudulenta, incompleta ou inverídica.
Comentário 1.13. - IA para quê? IA para tudo que for possível. O objetivo é a superação da IH pela IA nas mais diversas tarefas. Sugere-se a seguinte redação: “Art. 13º. IA não militar deve expor publicamente a sua finalidade de modo ostensivo”
Seção II
Risco Excessivo
Art. 14º São vedadas a implementação e o uso de sistemas de inteligência artificial:
I – que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir a pessoa natural a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança ou contra os fundamentos desta Lei;
II – que explorem quaisquer vulnerabilidades de grupos específicos de pessoas naturais, tais como as associadas a sua idade ou deficiência física ou mental, de modo a induzi-las a se comportar de forma prejudicial a sua saúde ou segurança ou contra os fundamentos desta Lei;
III – pelo poder público, para avaliar, classificar ou ranquear as pessoas naturais, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional.
Comentário 1.14. - Cada gostei, cada like, que um usuário dá em uma rede social, é uma métrica. Cada escolha entre um conjunto de elementos é uma métrica. Cada segundo em um local, um site, é uma métrica. Todas essas pegadas digitais são reunidas, enquanto métricas, para metrificar o usuário da rede social, perfilizando-o. Tudo que você faz pode ser metrificado. As palavras, as sequências e escolhas de palavras, em um simples texto que você envia para alguém é objeto de metrificação. Tudo é dado. E todo dado é metrificável, mensurável. O seu comportamento é verificável quando você se posiciona politicamente, religiosamente, sexualmente, profissionalmente, etc. A Ciência caminha a partir de metrificação, mensuração, comparação. Sem ver, como é possível analisar? A Política, cientificizada, caminha com as pesquisas sobre a população e suas circunstâncias. Toda decisão precisa de dados para ser uma “boa decisão”? A quantidade elevada de dados resulta em qualidade? Com uma grande quantidade de dados, basta segmentar para especializar? Sabendo quem você é, é mais fácil te controlar? Sabendo quem você é, é mais fácil te entregar o quê você deseja? O quê você deseja é fruto de uma “livre” vontade? Sabemos como o ser humano pode ser facilmente manipulado, mesmo os mais instruídos dos humanos podem ser manipulados. Sugere-se a seguinte redação: “Art. 14º. O objetivo segundo da IA é diminuir o sofrimento humano, sem criar adicção”
Art. 15º No âmbito de atividades de segurança pública, somente é permitido o uso de sistemas de identificação biométrica à distância, de forma contínua em espaços acessíveis ao público, quando houver previsão em lei federal específica e autorização judicial em conexão com a atividade de
persecução penal individualizada, nos seguintes casos:
I – persecução de crimes passíveis de pena máxima de reclusão superior a dois anos;
II – busca de vítimas de crimes ou pessoas desaparecidas; ou
III – crime em flagrante.
Parágrafo único. A lei a que se refere o caput preverá medidas proporcionais e estritamente necessárias ao atendimento do interesse público, observados o devido processo legal e o controle judicial, bem como os princípios e direitos previstos nesta Lei, especialmente a garantia contra a
discriminação e a necessidade de revisão da inferência algorítmica pelo agente público responsável, antes da tomada de qualquer ação em face da pessoa identificada.
Comentário 1.15. - “Se eu não posso ver, como vou proteger?”, diz o Estado para o cidadão. “Não é primeiramente para isso que você paga tributos?”, continua o Estado dizendo, “para te proteger da violência?”. Mas quem guardará os guardas? (quis custodiet ipsos custodes?) Sugere-se a seguinte redação: “Art. 15º. IAs usadas pelo Estado no âmbito dos Poderes Legislativo, Executivo e Judiciário poderão ser auditadas pela sociedade civil, inclusive as IAs usadas para segurança pública, no plano interno da soberania do Estado. Parágrafo Único. IAs militares são confidenciais”
Art. 16º Caberá à autoridade competente regulamentar os sistemas de inteligência artificial de risco excessivo.
Comentário 1.16. - Sugere-se a seguinte redação: “Art. 16º. Será criada a Agência Nacional de Inteligência Artificial (“ANIA”) para regulação e fiscalização”
Seção III
Alto Risco
Art. 17º São considerados sistemas de inteligência artificial de alto risco aqueles utilizados para as seguintes finalidades:
I – aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e de eletricidade;
II – educação e formação profissional, incluindo sistemas de determinação de acesso a instituições de ensino ou de formação profissional ou para avaliação e monitoramento de estudantes;
III – recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas afetadas por tais aplicações de inteligência artificial nas áreas de emprego, gestão de trabalhadores e acesso ao emprego
por conta própria;
IV – avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação de serviços privados e públicos que sejam considerados essenciais, incluindo sistemas utilizados para avaliar a elegibilidade de pessoas naturais quanto a prestações de serviços públicos de
assistência e de seguridade;
V – avaliação da capacidade de endividamento das pessoas naturais ou estabelecimento de sua classificação de crédito;
VI – envio ou estabelecimento de prioridades para serviços de resposta a emergências, incluindo bombeiros e assistência médica;
VII – administração da justiça, incluindo sistemas que auxiliem autoridades judiciárias na investigação dos fatos e na aplicação da lei;
VIII – veículos autônomos, quando seu uso puder gerar riscos à integridade física de pessoas;
IX – aplicações na área da saúde, inclusive as destinadas a auxiliar diagnósticos e procedimentos médicos;
X – sistemas biométricos de identificação;
XI – investigação criminal e segurança pública, em especial para avaliações individuais de riscos pelas autoridades competentes, a fim de determinar o risco de uma pessoa cometer infrações ou de reincidir, ou o risco para potenciais vítimas de infrações penais ou para avaliar os traços de
personalidade e as características ou o comportamento criminal passado de pessoas singulares ou grupos;
XII – estudo analítico de crimes relativos a pessoas naturais, permitindo às autoridades policiais pesquisar grandes conjuntos de dados complexos, relacionados ou não relacionados, disponíveis em diferentes fontes de dados ou em diferentes formatos de dados, no intuito de identificar padrões
desconhecidos ou descobrir relações escondidas nos dados;
XIII – investigação por autoridades administrativas para avaliar a credibilidade dos elementos de prova no decurso da investigação ou repressão de infrações, para prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares; ou
XIV – gestão da migração e controle de fronteiras.
Comentário 1.17. - A IA atingirá, na prática, toda as áreas da humanidade, estando presente na vida dos humanos do nascimento até a morte (e para além dessa). Sugere-se a seguinte redação: “Art. 17º. A restrição de setores na aplicação de IA só pode ocorrer devido ao estado da arte”
Art. 18º Caberá à autoridade competente atualizar a lista dos sistemas de inteligência artificial de risco excessivo ou de alto risco, identificando novas hipóteses, com base em, pelo menos, um dos seguintes critérios:
I – a implementação ser em larga escala, levando-se em consideração o número de pessoas afetadas e a extensão geográfica, bem como a sua duração e frequência;
II – o sistema puder impactar negativamente o exercício de direitos e liberdades ou a utilização de um serviço;
III – o sistema tiver alto potencial danoso de ordem material ou moral, bem como discriminatório;
IV – o sistema afetar pessoas de um grupo específico vulnerável;
V – serem os possíveis resultados prejudiciais do sistema de inteligência artificial irreversíveis ou de difícil reversão;
VI – um sistema de inteligência artificial similar ter causado anteriormente danos materiais ou morais;
VII – baixo grau de transparência, explicabilidade e auditabilidade do sistema de inteligência artificial, que dificulte o seu controle ou supervisão;
VIII – alto nível de identificabilidade dos titulares dos dados, incluindo o tratamento de dados genéticos e biométricos para efeitos de identificação única de uma pessoa singular, especialmente quando o tratamento inclui combinação, correspondência ou comparação de dados de várias fontes;
IX – quando existirem expectativas razoáveis do afetado quanto ao uso de seus dados pessoais no sistema de inteligência artificial, em especial a expectativa de confidencialidade, como no tratamento de dados sigilosos ou sensíveis.
Parágrafo único. A atualização da lista mencionada no caput pela autoridade competente será precedida de consulta ao órgão regulador setorial competente, se houver, assim como de consulta e de audiência públicas e de análise de impacto regulatório.
Comentário 1.18. - Foquemos nesse inciso: “baixo grau de transparência, explicabilidade e auditabilidade do sistema de inteligência artificial, que dificulte o seu controle ou supervisão”. Ora, a regra é que os não-poderosos são transparentes para os poderosos, mas esses não são transparentes para aqueles. O Estado pode saber tudo sobre um cidadão; tudo pela proteção desse. Mas um cidadão pode saber verdadeiramente sobre o Estado? A transparência da administração pública esbarra em sigilos e confidencialidade. Sigilo em aplicações militares: não é essencial? Ora, que explicabilidade é essa em que se eu pedir para a IA me revelar todas as suas relações para chegar a um resultado ela, a IA, vai imprimir bilhões de páginas para eu ler. Conseguimos ler tudo, com nossa estrutura puramente humana? Ora, que auditabilidade é essa de um ser com menos capacidade de análise sobre um ser com maior capacidade de análise? Quem tem “super-visão”: nós, humanos, ou a IA? . Foquemos agora nessa passagem de um outro inciso: “alto nível de identificabilidade dos titulares dos dados, incluindo o tratamento de dados genéticos e biométricos para efeitos de identificação única de uma pessoa singular”. Você aceita dar os dados genéticos de seus filhos para verificarem possíveis doenças com pré-disposição genética? Um plano de saúde ou o Estado podem usar de informações dos pacientes para estruturar sua atuação de saúde coletiva? Em um mundo onde tudo é metrificado, o Estado pode verificar o custo individualizado de cada pessoa perante a sociedade? Você vai ter que pagar mais tributo, pois não está fazendo exercícios adequadamente conforme a orientação do Estado? Sugere-se a seguinte redação: “Art. 18º. O terceiro objetivo da IA é estender o máximo possível a existência da espécie humana, com o mínimo possível de sofrimento individual”
CAPÍTULO IV
DA GOVERNANÇA DOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL
Seção I
Disposições Gerais
Art. 19º Os agentes de inteligência artificial estabelecerão estruturas de governança e processos internos aptos a garantir a segurança dos sistemas e o atendimento dos direitos de pessoas afetadas, nos termos previstos no Capítulo II desta Lei e da legislação pertinente, que incluirão, pelo menos:
I – medidas de transparência quanto ao emprego de sistemas de inteligência artificial na interação com pessoas naturais, o que inclui o uso de interfaces ser humano-máquina adequadas e suficientemente claras e informativas;
II – transparência quanto às medidas de governança adotadas no desenvolvimento e emprego do sistema de inteligência artificial pela organização;
III – medidas de gestão de dados adequadas para a mitigação e prevenção de potenciais vieses discriminatórios;
IV – legitimação do tratamento de dados conforme a legislação de proteção de dados, inclusive por meio da adoção de medidas de privacidade desde a concepção e por padrão e da adoção de técnicas que minimizem o uso de dados pessoais;
V – adoção de parâmetros adequados de separação e organização dos dados para treinamento, teste e validação dos resultados do sistema; e
VI – adoção de medidas adequadas de segurança da informação desde a concepção até a operação do sistema.
§ 1º As medidas de governança dos sistemas de inteligência artificial são aplicáveis ao longo de todo o seu ciclo de vida, desde a concepção inicial até o encerramento de suas atividades e descontinuação.
§ 2º A documentação técnica de sistemas de inteligência artificial de alto risco será elaborada antes de sua disponibilização no mercado ou de seu uso para prestação de serviço e será mantida atualizada durante sua utilização.
Comentário 1.19. - Uma coisa é o que uma pessoa, natural ou artificial, declara. Outra coisa é tal declaração ser verdadeira ou falsa. Para verificar a declaração é necessário investigação. E para investigar é preciso observar. Mas observar o quê no caso da IA? Observar os efeitos? Se observar os meios (as relações) pelos quais os efeitos foram gerados nos é humanamente impossível, então, como verificar se uma estatística a partir de bilhões de dados é verídica? Sugere-se a seguinte redação: “Art. 19º. É vedada a presunção de boa-fé da IA diante da incognoscibilidade de suas relações para a inteligência humana”
Seção II
Medidas de Governança para Sistemas de Inteligência Artificial de Alto Risco
Art. 20º Além das medidas indicadas no art. 19, os agentes de inteligência artificial que forneçam ou operem sistemas de alto risco adotarão as seguintes medidas de governança e processos internos:
I – documentação, no formato adequado ao processo de desenvolvimento e à tecnologia usada, a respeito do funcionamento do sistema e das decisões envolvidas em sua construção, implementação e uso, considerando todas as etapas relevantes no ciclo de vida do sistema, tais como estágio de design, de desenvolvimento, de avaliação, de operação e de descontinuação do sistema;
II – uso de ferramentas de registro automático da operação do sistema, de modo a permitir a avaliação de sua acurácia e robustez e a apurar potenciais discriminatórios, e implementação das medidas de mitigação de riscos adotadas, com especial atenção para efeitos adversos;
III – realização de testes para avaliação de níveis apropriados de confiabilidade, conforme o setor e o tipo de aplicação do sistema de inteligência artificial, incluindo testes de robustez, acurácia, precisão e cobertura;
IV – medidas de gestão de dados para mitigar e prevenir vieses discriminatórios, incluindo:
a) avaliação dos dados com medidas apropriadas de controle de vieses cognitivos humanos que possam afetar a coleta e organização dos dados e para evitar a geração de vieses por problemas na classificação, falhas ou falta de informação em relação a grupos afetados, falta de cobertura ou distorções em representatividade, conforme a aplicação pretendida, bem como medidas
corretivas para evitar a incorporação de vieses sociais estruturais que possam ser perpetuados e ampliados pela tecnologia; e
b) composição de equipe inclusiva responsável pela concepção e desenvolvimento do sistema, orientada pela busca da diversidade.
V – adoção de medidas técnicas para viabilizar a explicabilidade dos resultados dos sistemas de inteligência artificial e de medidas para disponibilizar aos operadores e potenciais impactados informações gerais sobre o funcionamento do modelo de inteligência artificial empregado, explicitando a lógica e os critérios relevantes para a produção de resultados, bem como,
mediante requisição do interessado, disponibilizar informações adequadas que permitam a interpretação dos resultados concretamente produzidos, respeitado o sigilo industrial e comercial.
Parágrafo único. A supervisão humana de sistemas de inteligência artificial de alto risco buscará prevenir ou minimizar os riscos para direitos e liberdades das pessoas que possam decorrer de seu uso normal ou de seu uso em condições de utilização indevida razoavelmente previsíveis, viabilizando que as pessoas responsáveis pela supervisão humana possam:
I – compreender as capacidades e limitações do sistema de inteligência artificial e controlar devidamente o seu funcionamento, de modo que sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser identificados e resolvidos o mais rapidamente possível;
II – ter ciência da possível tendência para confiar automaticamente ou confiar excessivamente no resultado produzido pelo sistema de inteligência artificial;
III – interpretar corretamente o resultado do sistema de inteligência artificial tendo em conta as características do sistema e as ferramentas e os métodos de interpretação disponíveis;
IV – decidir, em qualquer situação específica, por não usar o sistema de inteligência artificial de alto risco ou ignorar, anular ou reverter seu resultado; e
V – intervir no funcionamento do sistema de inteligência artificial de alto risco ou interromper seu funcionamento.
Comentário 1.20. - Observemos os termos “razoavelmente previsíveis” e “sinais de anomalias, disfuncionalidades e desempenho inesperado”. Esses termos se referem à incerteza natural da vida. O imprevisível e o inesperado são as regras. Por meio do que chamamos de causalidade, tentamos prever o futuro com base no passado. Calculamos probabilidades a partir do que entendemos ter sido determinações do acaso, do destino. Àquilo que chamamos de sorte, azar, destino, acaso...tudo isso traduz nossa incapacidade de ver pelas causas. A IA pode ver mais causas do que nós, causas enquanto geradoras de determinados efeitos? Laplace, o matemático, já indicava o que aconteceria se pudéssemos ver todas as causas. Veríamos o passado e o futuro. Mas o tempo do Cosmos: eterno? O espaço do Cosmos: infinito? Até para a IA, que muito mais longe do que um humano pode ver, sempre haverá um mistério dentro do mistério? Sugere-se a seguinte redação: “Art. 20º. IA e seres humanos serão documentados, registrados, testados e adaptados à convivência conjunta, estando ambos sujeitos ao princípio da causalidade e da intuição humana”
Art. 21º Adicionalmente às medidas de governança estabelecidas neste capítulo, órgãos e entidades do poder público da União, Estados, Distrito Federal e Municípios, ao contratar, desenvolver ou utilizar sistemas de inteligência artificial considerados de alto risco, adotarão as seguintes medidas:
I – realização de consulta e audiência públicas prévias sobre a utilização planejada dos sistemas de inteligência artificial, com informações sobre os dados a serem utilizados, a lógica geral de funcionamento e resultados de testes realizados;
II – definição de protocolos de acesso e de utilização do sistema que permitam o registro de quem o utilizou, para qual situação concreta, e com qual finalidade;
III – utilização de dados provenientes de fontes seguras, que sejam exatas, relevantes, atualizadas e representativas das populações afetadas e testadas contra vieses discriminatórios, em conformidade com a Lei nº 13.709, de 14 de agosto de 2018, e seus atos regulamentares;
IV – garantia facilitada e efetiva ao cidadão, perante o poder público, de direito à explicação e revisão humanas de decisão por sistemas de inteligência artificial que gerem efeitos jurídicos relevantes ou que impactem significativamente os interesses do afetado, a ser realizada pelo agente público competente;
V – utilização de interface de programação de aplicativos que permita sua utilização por outros sistemas para fins de interoperabilidade, na forma da regulamentação; e
I – publicização em veículos de fácil acesso, preferencialmente em seus sítios eletrônicos, das avaliações preliminares dos sistemas de inteligência artificial desenvolvidos, implementados ou utilizados pelo poder público da União, Estados, Distrito Federal e Municípios, independentemente
do grau de risco, sem prejuízo do disposto no art. 43.
§ 1º A utilização de sistemas biométricos pelo poder público da União, Estados, Distrito Federal e Municípios será precedida da edição de ato normativo que estabeleça garantias para o exercício dos direitos da pessoa afetada e proteção contra a discriminação direta, indireta, ilegal ou abusiva vedado o tratamento de dados de raça, cor ou etnia, salvo previsão expressa em lei.
§ 2º Na impossibilidade de eliminação ou mitigação substantiva dos riscos associados ao sistema de inteligência artificial identificados na avaliação de impacto algorítmico prevista no artigo 22 desta Lei, sua utilização será descontinuada.
Comentário 1.21. - Não é por estarmos bravos que estamos certos. Fico chateado, contrariado com uma decisão. Vou checar os motivos da decisão. E verifico que estou errado. E continuo bravo. E quantos humanos, bravos, sustentam algo que sabem estar errado? O emocional de um humano é muito ego-centrado, pelo menos até essa fase do desenvolvimento da espécie. Nossa natureza, atual, é egoista. Ora, se toda a Ciência humana, a Tecnologia e a Responsabilidade Jurídica estão assentadas na causalidade, então, por qual motivo não aceitá-la como a regra máxima da natureza e da sociedade? Sugere-se a seguinte redação: “Art. 21º. No conflito entre uma decisão de uma IA baseada em causalidade e uma decisão humana baseada em intuição, a decisão da IA prevalecerá, sem prejuízo do direito natural do humano de resistir à decisão que lhe causa dano”
Seção III
Avaliação de Impacto Algorítmico
Art. 22º A avaliação de impacto algorítmico de sistemas de inteligência artificial é obrigação dos agentes de inteligência artificial, sempre que o sistema for considerado como de alto risco pela avaliação preliminar.
Parágrafo único. A autoridade competente será notificada sobre o sistema de alto risco, mediante o compartilhamento das avaliações preliminar e de impacto algorítmico.
Comentário 1.22. - Pode-se checar, se o código-fonte for aberto, as causas, as instruções, programadas inicialmente. Também se pode checar o resultado, os efeitos da atividade, do funcionamento, da IA. Mas não se consegue verificar, humanamente, as relações feitas. Tal qual não se consegue fazer um prédio de 30 andares sem máquinas pesadas. Sugere-se a seguinte redação: “Art. 22º. IAs poderão ser avaliadas pelos efeitos gerados e pelo código-fonte, e humanos poderão ser perfilizados por comportamento e genética”
Art. 23º A avaliação de impacto algorítmico será realizada por profissional ou equipe de profissionais com conhecimentos técnicos, científicos e jurídicos necessários para realização do relatório e com independência funcional.
Parágrafo único. Caberá à autoridade competente regulamentar os casos em que a realização ou auditoria da avaliação de impacto será necessariamente conduzida por profissional ou equipe de profissionais externos ao fornecedor.
Comentário 1.23. - Relatórios elaborados com conflitos de interesse são parciais, no sentido comum do termo. Sugere-se a seguinte redação: “Art. 23º. Avaliação de IA é inválida juridicamente quando provado conflito de interesses”
Art. 24º A metodologia da avaliação de impacto conterá, ao menos, as seguintes etapas:
I – preparação;
II – cognição do risco;
III – mitigação dos riscos encontrados;
IV – monitoramento.
§ 1º A avaliação de impacto considerará e registrará, ao menos:
a) riscos conhecidos e previsíveis associados ao sistema de inteligência artificial à época em que foi desenvolvido, bem como os riscos que podem razoavelmente dele se esperar;
b) benefícios associados ao sistema de inteligência artificial;
c) probabilidade de consequências adversas, incluindo o número de pessoas potencialmente impactadas;
d) gravidade das consequências adversas, incluindo o esforço necessário para mitigá-las;
e) lógica de funcionamento do sistema de inteligência artificial;
f) processo e resultado de testes e avaliações e medidas de mitigação realizadas para verificação de possíveis impactos a direitos, com especial destaque para potenciais impactos discriminatórios;
g) treinamento e ações de conscientização dos riscos associados ao sistema de inteligência artificial;
h) medidas de mitigação e indicação e justificação do risco residual do sistema de inteligência artificial, acompanhado de testes de controle de qualidade frequentes; e
i) medidas de transparência ao público, especialmente aos potenciais usuários do sistema, a respeito dos riscos residuais, principalmente quando envolver alto grau de nocividade ou periculosidade à saúde ou segurança dos usuários, nos termos dos artigos 9º e 10 da Lei nº 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor)
§ 2º Em atenção ao princípio da precaução, quando da utilização de sistemas de inteligência artificial que possam gerar impactos irreversíveis ou de difícil reversão, a avaliação de impacto algorítmico levará em consideração também as evidências incipientes, incompletas ou especulativas.
§ 3º A autoridade competente poderá estabelecer outros critérios e elementos para a elaboração de avaliação de impacto, incluindo a participação dos diferentes segmentos sociais afetados, conforme risco e porte econômico da organização.
§ 4º Caberá à autoridade competente a regulamentação da periodicidade de atualização das avaliações de impacto, considerando o ciclo de vida dos sistemas de inteligência artificial de alto risco e os campos de aplicação, podendo incorporar melhores práticas setoriais.
§ 5º Os agentes de inteligência artificial que, posteriormente à sua introdução no mercado ou utilização em serviço, tiverem conhecimento de risco inesperado que apresentem a direitos de pessoas naturais, comunicará o fato imediatamente às autoridades competente e às pessoas afetadas pelo sistema de inteligência artificial.
Comentário 1.24. - Já que a norma menciona o termo “método”, voltemos até Descartes. Diz esse filósofo e matemático: “Regra I. Os estudos devem ter por meta dar ao espírito uma direção que lhe permita formular juízos sólidos e verdadeiros sobre tudo que se lhe apresenta. Regra II. Os objetos com os quais devemos nos preocupar são aqueles que nossos espíritos parecem ser suficientes para conhecer de uma maneira certa e indubitável. Regra III. No que tange aos objetos considerados, não é o que pensa outrem ou o que nós mesmos conjecturamos que se deve investigar, mas o que podemos ver por intuição com clareza e evidência, ou o que podemos deduzir com certeza: não é de outro modo, de fato, que se adquire a ciência. Regra IV. O método é necessário para a busca da verdade” (Regras para a Orientação do Espírito). Sugere-se a seguinte redação: “Art. 24º. O método puramente humano na avaliação de uma IA, sem o uso de qualquer tecnologia, assenta-se no debate acerca das finalidades da IA”
Art. 25º A avaliação de impacto algorítmico consistirá em processo iterativo contínuo, executado ao longo de todo o ciclo de vida dos sistemas de inteligência artificial de alto risco, requeridas atualizações periódicas.
§ 1º Caberá à autoridade competente a regulamentação da periodicidade de atualização das avaliações de impacto.
§ 2º A atualização da avaliação de impacto algorítmico contará também com participação pública, a partir de procedimento de consulta a partes interessadas, ainda que de maneira simplificada.
Comentário 1.25. - Sugere-se a seguinte redação: “Art. 25º. Faz parte do método de avaliação contínua de IA a verificação de como a IA foi construída e atualizada, e de quais efeitos já gerou ou que potencialmente pode vir a gerar.”
Art. 26º Garantidos os segredos industrial e comercial, as conclusões da avaliação de impacto serão públicas, contendo ao menos as seguintes informações:
I – descrição da finalidade pretendida para a qual o sistema será utilizado, assim como de seu contexto de uso e escopo territorial e temporal;
II – medidas de mitigação dos riscos, bem como o seu patamar residual, uma vez implementada tais medidas; e
III – descrição da participação de diferentes segmentos afetados, caso tenha ocorrido, nos termos do § 3º do art. 24 desta Lei.
Comentário 1.26. - Quis custodiet ipsos custodes? Sugere-se a seguinte redação: “Art. 26º. Todos os relatórios de avaliação de IA são públicos”
CAPÍTULO V
DA RESPONSABILIDADE CIVIL
Art. 27º O fornecedor ou operador de sistema de inteligência artificial que cause dano patrimonial, moral, individual ou coletivo é obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema.
§ 1º Quando se tratar de sistema de inteligência artificial de alto risco ou de risco excessivo, o fornecedor ou operador respondem objetivamente pelos danos causados, na medida de sua participação no dano.
§ 2º Quando não se tratar de sistema de inteligência artificial de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.
Comentário 1.27. -O princípio jurídico é de que quem causa o dano tem o dever de reparar. Se uma IA de uma Big Tech ou do Estado causa um dano, quem pagará pela indenização é a Corporation ou, se o caso, o Estado. Caso a IA possuísse um patrimônio próprio, integralizado, sendo tratada tal qual uma pessoa jurídica, então a indenização seria paga diretamente por esse patrimônio constitutivo da IA, tal qual sugerido no Parecer nº 1, sem prejuízo de responsabilidade solidária ou regressiva quando a situação assim exigir ou possibilitar. Sugere-se a seguinte redação: “Art. 27º. O fornecedor e o operador de IA podem vir a ser responsáveis solidários por indenizações decorrentes de danos ocasionados pela IA, na medida de suas culpabilidades”
Art. 28º Os agentes de inteligência artificial não serão responsabilizados quando:
I – comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial; ou
II – comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiro, assim como de caso fortuito externo.
Comentário 1.28. - Certamente uma IA sendo criada e operada pelo Estado, ou por uma grande empresa, é diferente de uma IA sendo operada por um usuário em termos de responsabilidade. A situação pode ser a seguinte: o fornecedor da IA gerou um dano por design de software; o operador-controlador pessoa jurídica dessa IA, além disso, não tomou medidas de cybersegurança adequadas conforme o estado da arte, as quais, nesse caso hipotético, são independentes do defeito de fabricação da IA; por fim, um operador-usuário pessoa natural com intenção criminosa usa a IA para gerar dano em sua vítima. Sugere-se a seguinte redação: “Art. 28º. Há responsabilidade objetiva pelo risco do negócio jurídico para o fornecedor da IA e para o operador-controlador da IA, haja ou não finalidade de lucro por parte desses agentes, e, quando o operador for um usuário da IA, a responsabilidade é subjetiva, devendo haver prova do nexo causal entre a ação de uso da IA pelo usuário e o dano gerado”
Art. 29º As hipóteses de responsabilização civil decorrentes de danos causados por sistemas de inteligência artificial no âmbito das relações de consumo permanecem sujeitas às regras previstas na Lei nº 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor), sem prejuízo da
aplicação das demais normas desta Lei.
Comentário 1.29. - Sugere-se a seguinte redação: “Art. 29º. Para fins de responsabilização jurídica é vedado tratamento diferenciado para IA pública, devendo essa e uma IA privada serem tratadas da mesma maneira, tanto no que concerne ao direito processual quanto em relação ao direito material”
CAPÍTULO VI
CÓDIGOS DE BOAS PRÁTICAS E DE GOVERNANÇA
Art. 30º Os agentes de inteligência artificial poderão, individualmente ou por meio de associações, formular códigos de boas práticas e de governança que estabeleçam as condições de organização, o regime de funcionamento, os procedimentos, inclusive sobre reclamações das pessoas afetadas, as normas de segurança, os padrões técnicos, as obrigações específicas para cada contexto de implementação, as ações educativas, os mecanismos internos de supervisão e de mitigação de riscos e as medidas de segurança técnicas e organizacionais apropriadas para a gestão dos riscos
decorrentes da aplicação dos sistemas.
§ 1º Ao se estabelecerem regras de boas práticas, serão consideradas a finalidade, a probabilidade e a gravidade dos riscos e dos benefícios decorrentes, a exemplo da metodologia disposta no art. 24 desta Lei.
§ 2º Os desenvolvedores e operadores de sistemas de inteligência artificial, poderão:
I – implementar programa de governança que, no mínimo:
a) demonstre o seu comprometimento em adotar processos e políticas internas que assegurem o cumprimento, de forma abrangente, de normas e boas práticas relativas à não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas dos sistemas de inteligência artificial;
b) seja adaptado à estrutura, à escala e ao volume de suas operações, bem como ao seu potencial danoso;
c) tenha o objetivo de estabelecer relação de confiança com as pessoas afetadas, por meio de atuação transparente e que assegure mecanismos de participação nos termos do art. 24, § 3º, desta Lei;
d) esteja integrado a sua estrutura geral de governança e estabeleça e aplique mecanismos de supervisão internos e externos;
e) conte com planos de resposta para reversão dos possíveis resultados prejudiciais do sistema de inteligência artificial; e
f) seja atualizado constantemente com base em informações obtidas a partir de monitoramento contínuo e avaliações periódicas.
§ 3º A adesão voluntária a código de boas práticas e governança pode ser considerada indicativo de boa-fé por parte do agente e será levada em consideração pela autoridade competente para fins de aplicação de sanções administrativas.
§ 4º A autoridade competente poderá estabelecer procedimento de análise de compatibilidade do código de conduta com a legislação vigente, com vistas à sua aprovação, publicização e atualização periódica.
Comentário 1.30. - Quando pensamos em atividades de risco, críticas, logo vêm à mente as Usinas Nucleares. Acidentes com usinas nucleares já deixaram áreas terrestres inabitáveis para humanos. Assim, tudo tem que ser muito monitorado e controlado. Quando ocorrem acidentes, existem protocolos de segurança a serem seguidos. Monitorar para controlar. Ver para proteger. Quem está no controle? O humano? Se for humano, com base em que esse humano controla? Com base em dados? E quem domina os dados: computadores ou humanos? Sugere-se a seguinte redação: “Art. 30º. Constitui boa prática e governança o monitoramento constante, a publicidade das avaliações e a participação das pessoas naturais da sociedade civil, dos militares e dos agentes humanos do Estado”
CAPÍTULO VII
DA COMUNICAÇÃO DE INCIDENTES GRAVES
Art. 31º Os agentes de inteligência artificial comunicarão à autoridade competente a ocorrência de graves incidentes de segurança, incluindo quando houver risco à vida e integridade física de pessoas, a interrupção de funcionamento de operações críticas de infraestrutura, graves danos à propriedade ou ao meio ambiente, bem como graves violações aos direitos fundamentais, nos termos do regulamento.
§ 1º A comunicação será feita em prazo razoável, conforme definido pela autoridade competente.
§ 2º A autoridade competente verificará a gravidade do incidente e poderá, caso necessário, determinar ao agente a adoção de providências e medidas para reverter ou mitigar os efeitos do incidente.
Comentário 1.31. - Quanto melhor os dados, melhor a metrificação; tem que limpar “a sujeira” dos dados. Mas quanto mais dados, mais chance de um recorte que ache os melhores dados. Qualquer incidente é um dado. Sugere-se a seguinte redação: “Art. 31º. Todo incidente deve ser provado, reportado, classificado, arquivado e metrificado em intensidade danosa conforme o todo do histórico de incidentes, constituindo-se a partir da promulgação dessa lei o Livro dos Erros. Parágrafo Único. Cada incidente espontaneamente reportado gera abatimento de 50% em eventuais multas, as quais só poderão ser aplicadas quando comprovadamente tiver ocorrido dano”
CAPÍTULO VIII
DA SUPERVISÃO E FISCALIZAÇÃO
Seção I
Da Autoridade Competente
Art. 32º O Poder Executivo designará autoridade competente para zelar pela implementação e fiscalização da presente Lei. Parágrafo único. Cabe à autoridade competente:
I – zelar pela proteção a direitos fundamentais e a demais direitos afetados pela utilização de sistemas de inteligência artificial;
II – promover a elaboração, atualização e implementação da Estratégia Brasileira de Inteligência Artificial junto aos órgãos de competência correlata;
III – promover e elaborar estudos sobre boas práticas no desenvolvimento e utilização de sistemas de inteligência artificial;
IV – estimular a adoção de boas práticas, inclusive códigos de conduta, no desenvolvimento e utilização de sistemas de inteligência artificial;
V – promover ações de cooperação com autoridades de proteção e de fomento ao desenvolvimento e à utilização dos sistemas de inteligência artificial de outros países, de natureza internacional ou transnacional;
VI – expedir normas para a regulamentação desta Lei, inclusive sobre:
a) procedimentos associados ao exercício dos direitos previstos nesta Lei;
b) procedimentos e requisitos para elaboração da avaliação de impacto algorítmico;
c) forma e requisitos das informações a serem publicizadas sobre a utilização de sistemas de inteligência artificial; e
d) procedimentos para certificação do desenvolvimento e utilização de sistemas de alto risco.
VII – articular-se com as autoridades reguladoras públicas para exercer suas competências em setores específicos de atividades econômicas e governamentais sujeitas à regulação;
VIII – fiscalizar, de modo independente ou em conjunto com outros órgãos públicos competentes, a divulgação das informações previstas nos arts. 7º e 43;
IX – fiscalizar e aplicar sanções, em caso de desenvolvimento ou utilização de sistemas de inteligência artificial realizado em descumprimento à legislação, mediante processo administrativo que assegure o contraditório, a ampla defesa e o direito de recurso;
X – solicitar, a qualquer momento, às entidades do poder público que desenvolvam ou utilizem sistemas de inteligência artificial, informe específico sobre o âmbito, a natureza dos dados e os demais detalhes do tratamento realizado, com a possibilidade de emitir parecer técnico
complementar para garantir o cumprimento desta Lei;
XI – celebrar, a qualquer momento, compromisso com agentes de inteligência artificial para eliminar irregularidade, incerteza jurídica ou situação contenciosa no âmbito de processos administrativos, de acordo com o previsto no Decreto-Lei nº 4.657, de 4 de setembro de 1942;
XII – apreciar petições em face do operador de sistema de inteligência artificial, após comprovada apresentação de reclamação não solucionada no prazo estabelecido em regulamentação; e
XIII – elaborar relatórios anuais acerca de suas atividades.
Parágrafo único. Ao exercer as atribuições do caput, o órgão competente poderá estabelecer condições, requisitos, canais de comunicação e divulgação diferenciados para fornecedores e operadores de sistemas de inteligência artificial qualificados como micro ou pequenas empresas, nos termos da Lei Complementar nº 123, de 14 de dezembro de 2006, e startups, nos termos da Lei Complementar nº 182, de 1º de junho de 2021.
Comentário 1.32. - Sugere-se a seguinte redação: “Art. 32º. A ANIA será formada pelo Conselho Superior de IH, formado por 57 integrantes humanos, sendo 29 membros da sociedade civil, 7 membros militares, 7 membros do Legislativo, 7 membros do Executivo e 7 membros do Judiciário, com mandatos de 3 anos, não-reelegíveis, também sendo parte da estrutura da ANIA: I – a Diretoria Executiva, formada por 35 assentos, cada um com 7 membros das classes mencionadas no caput, com mandatos de 5 anos, não-reelegíveis; II – o Conselho Fiscal de Monitoramento Contínuo, formado por 57 integrantes, na mesma proporção de número e classe mencionados no caput, com mandatos de 3 anos, não-reelegíveis; III – primeiro corpo técnico e de analistas, exclusivamente formado por ex-conselheiros e ex-diretores; IV – segundo corpo técnico e de analistas, formado por funcionários públicos de carreira, oriundos de transferência de outras agências reguladoras e órgãos estatais, refletindo máxima diversidade de conhecimento; V – laboratórios computacionais de última geração, equipados com super-computadores e pesquisadores suficientes. Parágrafo Único. Todos os cargos devem ser remunerados”
Art. 33º A autoridade competente será o órgão central de aplicação desta Lei e do estabelecimento de normas e diretrizes para a sua implementação.
Comentário 1.33. - Se não tocar no bolso o humano, em geral, não presta atenção. E o assunto exige atenção. Também havendo um pagamento, o sentimento de legitimidade para cobrança da aplicação do dinheiro corretamente, com propósito, acaba aumentando. Principalmente, é necessário independência funcional. Sugere-se a seguinte redação: “Art. 33º. Será instituído o Tributo Federal de IA, a ser arcado por toda a sociedade, observados os princípios tributários da proporcionalidade e equidade, sendo a base de cálculo e a alíquota tributária conforme segue: contribuintes pessoas físicas pagarão 0,1% sobre quaisquer rendimentos ou acréscimos patrimoniais apurados no IRPF, na data e sistema de declaração desse imposto; contribuintes pessoas jurídicas pagarão 0,7% sobre lucros e acréscimos patrimoniais apurados para fins de IRPJ, observada alíquota de 0,2% para empresas inscritas no SIMPLES”. * Em uma aproximação, se IRPF e IRPJ/CSLL renderem 500 bilhões de arrecadação para o Estado, e considerando grosseiramente bases de cálculo, poder-se-ia levantar mais de 1 bilhão de reais.
Art. 34º A autoridade competente e os órgãos e entidades públicas responsáveis pela regulação de setores específicos da atividade econômica e governamental coordenarão suas atividades, nas correspondentes esferas de atuação, com vistas a assegurar o cumprimento desta Lei.
§ 1º A autoridade competente manterá fórum permanente de comunicação, inclusive por meio de cooperação técnica, com órgãos e entidades da administração pública responsáveis pela regulação de setores específicos da atividade econômica e governamental, a fim de facilitar as suas competências regulatória, fiscalizatória e sancionatória.
§ 2º Nos ambientes regulatórios experimentais (sandbox regulatório) que envolvam sistemas de inteligência artificial, conduzidos por órgãos e entidades públicas responsáveis pela regulação de setores específicos da atividade econômica, a autoridade competente será cientificada, podendo se
manifestar quanto ao cumprimento das finalidades e princípios desta lei.
Comentário 1.34. - Independência de atuação requer independência econômica. Sugere-se a seguinte redação: “Art. 34º. O Tributo de IA tem como destinações exclusivas: (i) o esclarecimento das pessoas naturais acerca da IA; (ii) o financiamento da ANIA, para a qual é vedada quaisquer formas de doação ou patrocínio, tais como quantia monetária, equipamentos, máquinas, computadores e softwares; (iii) a integralização do capital social das empresas públicas de chips, software, satélites e tecnologia espacial. Parágrafo Único. O Estado, verificada a necessidade estratégica dos investimentos em infra-estrutura para IA, poderá complementar o fomento, o financiamento e as integralizações mencionadas”
Art. 35º Os regulamentos e as normas editados pela autoridade competente serão precedidos de consulta e audiência públicas, bem como de análises de impacto regulatório, nos termos dos arts. 6º a 12 da Lei nº 13.848, de 25 de junho de 2019, no que cabível.
Comentário 1.35. - Sugere-se a seguinte redação: “Art. 35º. Os softwares usados pela ANIA devem ser, preferencialmente, desenvolvidos pela própria agência”
Seção II
Das Sanções Administrativas
Art. 36º Os agentes de inteligência artificial, em razão das infrações cometidas às normas previstas nesta Lei, ficam sujeitos às seguintes sanções administrativas aplicáveis pela autoridade competente:
I – advertência;
II – multa simples, limitada, no total, a R$ 50.000.000,00
(cinquenta milhões de reais) por infração, sendo, no caso de pessoa jurídica de direito privado, de até 2% (dois por cento) de seu faturamento, de seu grupo ou conglomerado no Brasil no seu último exercício, excluídos os tributos;
III – publicização da infração após devidamente apurada e confirmada a sua ocorrência;
IV – proibição ou restrição para participar de regime de sandbox regulatório previsto nesta Lei, por até cinco anos;
V – suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial; e
VI – proibição de tratamento de determinadas bases de dados.
§ 1º As sanções serão aplicadas após procedimento administrativo que possibilite a oportunidade da ampla defesa, de forma gradativa, isolada ou cumulativa, de acordo com as peculiaridades do caso concreto e considerados os seguintes parâmetros e critérios:
I – a gravidade e a natureza das infrações e a eventual violação de direitos;
II – a boa-fé do infrator;
III – a vantagem auferida ou pretendida pelo infrator;
IV – a condição econômica do infrator;
V – a reincidência;
VI – o grau do dano;
VII – a cooperação do infrator;
VIII – a adoção reiterada e demonstrada de mecanismos e procedimentos internos capazes de minimizar riscos, inclusive a análise de impacto algorítmico e efetiva implementação de código de ética;
IX – a adoção de política de boas práticas e governança;
X – a pronta adoção de medidas corretivas;
XI – a proporcionalidade entre a gravidade da falta e a intensidade da sanção; e
XII – a cumulação com outras sanções administrativas
eventualmente já aplicadas em definitivo para o mesmo ato ilícito.
§ 2º Antes ou durante o processo administrativo do § 1º, poderá a autoridade competente adotar medidas preventivas, incluída multa cominatória, observado o limite total a que se refere o inciso II do caput, quando houver indício ou fundado receio de que o agente de inteligência artificial:
I – cause ou possa causar lesão irreparável ou de difícil reparação; ou
II – torne ineficaz o resultado final do processo.
§ 3º O disposto neste artigo não substitui a aplicação de sanções administrativas, civis ou penais definidas na Lei nº 8.078, de 11 de setembro de 1990, na Lei nº 13.709, de 14 de agosto de 2018, e em legislação específica.
§ 4º No caso do desenvolvimento, fornecimento ou utilização de sistemas de inteligência artificial de risco excessivo haverá, no mínimo, aplicação de multa e, no caso de pessoa jurídica, a suspensão parcial ou total, provisória ou definitiva de suas atividades.
§ 5º A aplicação das sanções previstas neste artigo não exclui, em qualquer hipótese, a obrigação da reparação integral do dano causado, nos termos do art. 27.
Comentário 1.36. - Quem causa o dano tem o dever de indenizar. Qual a proporção adequada para uma indenização? Sugere-se a seguinte redação: “Art. 36º. Toda reparação por danos ocasionados por IA atuando autonomamente ou por IA operada por humano deverá considerar a intensidade da lesão, duração, repetição, intencionalidade, inevitabilidade, existência de imperícia, negligência e/ou imprudência, amplitude do dano na coletividade humana, condições econômicas, vulnerabilidade e hipossuficiência de humanos relativamente à IA, tentativa de reparação voluntária pelo infrator. Parágrafo Único. A ANIA poderá aplicar multas administrativas proporcionais aos danos comprovados, multas por descrumprimento dessa lei e outros tipos de sanções, tais como advertências e suspensão de atividade de IA, observados a ampla defesa e o devido processo legal”
Art. 37º A autoridade competente definirá, por meio de regulamento próprio, o procedimento de apuração e critérios de aplicação das sanções administrativas a infrações a esta Lei, que serão objeto de consulta pública, sem prejuízo das disposições do Decreto-Lei nº 4.657, de 4 de setembro de 1942, Lei nº 9.784, de 29 de janeiro de 1999, e demais disposições legais pertinentes.
Parágrafo único. As metodologias a que se refere o caput deste artigo serão previamente publicadas e apresentarão objetivamente as formas e dosimetrias das sanções, que conterão fundamentação detalhada de todos os seus elementos, demonstrando a observância dos critérios previstos nesta Lei.
Comentário 1.37. - Tal qual possuímos um Código Civil, um Codex Penal e um Código Tributário, o momento é de se criar um Código da Tecnologia. Sugere-se a seguinte redação: “Art. 37º. A presente lei faz parte do Código da Tecnologia, o qual consiste na reunião de toda matéria relacionada à computação, hardware, software, IA e redes, incluindo o Marco Civil da Internet e a LGPD, a ser elaborado em até 6 meses da promulgação da presente lei”
Seção III
Medidas para fomentar a inovação
Art. 38º A autoridade competente poderá autorizar o funcionamento de ambiente regulatório experimental para inovação em inteligência artificial (sandbox regulatório) para as entidades que o requererem e preencherem os requisitos especificados por esta Lei e em regulamentação.
Comentário 1.38. - A suspensão de regras ou dação de benefícios tributários são incentivos. Mas a participação das pessoas só ocorre se houver esclarecimento. Como esclarecer as pessoas? Os interesses dominantes, até esse momento da evolução humana, permitiram que tipo de esclarecimento para as pessoas?
Sugere-se a seguinte redação: “Art. 38º. O esclarecimento das pessoas naturais acerca da IA deverá ser feito por meio da instituição da matéria de IA em todos os níveis do ensino”
Art. 39º As solicitações de autorização para sandboxes regulatórios serão apresentadas ao órgão competente por meio de projeto cujas características contemplem, entre outras:
I – inovação no emprego da tecnologia ou no uso alternativo de tecnologias existentes;
II – aprimoramentos no sentido de ganhos de eficiência, redução de custos, aumento de segurança, diminuição de riscos, benefícios à sociedade e a consumidores, entre outros;
III – plano de descontinuidade, com previsão de medidas a serem tomadas para assegurar a viabilidade operacional do projeto uma vez encerrado o período da autorização do sandbox regulatório.
Comentário 1.39. - Sem indústria forte de hardware e software não existe IA. Sugere-se a seguinte redação: “Art. 39º. Serão fundadas, em até 6 meses da promulgação da presente lei, a Fábrica de Chips Brasileiros (“FCB”), a Casa de Softwares do Brasil (“CSB”) e a Empresa Brasileira de Satélites (“EBS”), empresas puramente públicas, cujos objetos sociais serão, respectivamente, a produção de circuitos integrados (chips), de programas (softwares) e de satélites e tecnologia espacial”
Art. 40º A autoridade competente editará regulamentação para estabelecer os procedimentos para a solicitação e autorização de funcionamento de sandboxes regulatórios, podendo limitar ou interromper o seu funcionamento, bem como emitir recomendações, levando em consideração,
dentre outros aspectos, a preservação de direitos fundamentais, de direitos dos consumidores potencialmente afetados e a segurança e proteção dos dados pessoais que forem objeto de tratamento.
Comentário 1.40. - Entre a produção do chip e o software, têm-se o hardware para além do chip, o qual forma os computadores, smartphones etc. Sugere-se a seguinte redação: “Art. 40º. Empresas produtoras de hardware, taxativamente empresas de computadores e celulares smartphones, do setor privado, com sede e administração no Brasil, terão isenção de 70% na alíquota de todos os tributos federais, preservadas as respectivas bases de cálculo”
Art. 41º Os participantes no ambiente de testagem da regulamentação da inteligência artificial continuam a ser responsáveis, nos termos da legislação aplicável em matéria de responsabilidade, por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem.
Comentário 1.41. - Como parte de infra-estrutura necessária para o desenvolvimento de IA robusta no Brasil, tecnologias de satélites e espacial são essenciais. Sugere-se a seguinte redação: “Art. 41º. A EBS estará sob regulação conjunto da ANIA e da Agência Espacial Brasileira”
Art. 42º Não constitui ofensa a direitos autorais a utilização automatizada de obras, como extração, reprodução, armazenamento e transformação, em processos de mineração de dados e textos em sistemas de inteligência artificial, nas atividades feitas por organizações e instituições de pesquisa, de jornalismo e por museus, arquivos e bibliotecas, desde que:
I – não tenha como objetivo a simples reprodução, exibição ou disseminação da obra original em si;
II – o uso ocorra na medida necessária para o objetivo a ser alcançado;
III – não prejudique de forma injustificada os interesses econômicos dos titulares; e
IV – não concorra com a exploração normal das obras.
§ 1º Eventuais reproduções de obras para a atividade de mineração de dados serão mantidas em estritas condições de segurança, e apenas pelo tempo necessário para a realização da atividade ou para a finalidade específica de verificação dos resultados da pesquisa científica.
§ 2º Aplica-se o disposto no caput à atividade de mineração de dados e textos para outras atividades analíticas em sistemas de inteligência artificial, cumpridas as condições dos incisos do caput e do § 1º, desde que as atividades não comuniquem a obra ao público e que o acesso às obras tenha se
dado de forma legítima.
§ 3º A atividade de mineração de textos e dados que envolva dados pessoais estará sujeita às disposições da Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais).
Comentário 1.42. - Nesse ponto é importante entendermos que o quê denominamos de criação é um re-arranjo do já existente. As criações humanas, até o surgimento da IA, eram identificáveis, e o trabalho de proteção do direito do autor era, portanto, possível. Ocorre que a IA possui o poder de escrever com o mesmo estilo, bem como o poder de fazer relações entre obras de modo mais amplo do que nós, humanos, conseguimos fazer. A quantidade determina a qualidade? No que diz respeito ao elementos da tabela periódica, por exemplo, a variação do número atômico determina o elemento químico. Se uma pessoa com conhecimento em 2 áreas olha para um fenômeno, a chance dessa pessoa entender mais perspectivas desse fenômeno é maior. Voltemos em Descartes: “...se alguém quer procurar seriamente a verdade, não deve escolher uma ciência específica: todas elas são unidas entre si e dependem umas das outras. Ele deve pensar somente em aumentar a luz natural da razão…”. Ora, uma IA possui a capacidade de relacionar conhecimentos de áreas diferentes, que nós, humanos, levaríamos muitos e muitos anos absorvendo. A partir dessas relações uma IA pode, inclusive, adotar um estilo de escrita, que é a síntese de vários estilos humanos. A IA, nesse sentido, faz um re-arranjo de elementos já existentes, assim como nós. No limite, a propriedade autoral humana até pode se tornar identificável, devido a marcações de nosso comportamento humano-biológico, mas, mesmo assim, terá menos relevância do ponto de vista do desenvolvimento tecnológico e econômico. Somos animais políticos, principalmente, porquê somos animais ignorantes. Cada indivíduo isolado sabe algo, a comunidade é o quê permite a junção e operacionalidade de diversos conhecimentos. Ninguém sabe tudo. Precisamos confiar uns nos outros no nosso dia-a-dia. Sou advogado, não entendo de medicina ou mecânica, portanto, preciso de pessoas que se dedicaram a esses conhecimentos durante a vida. Na era da IA, essa trama, essa rede, de diversos conhecimentos, cada um portado por uma pessoa, passa a estar como as entranhas de um ente. A humanidade começa a ganhar uma mente mais coesa. E o indivíduo humano isolado passa a perder importância na construção da pirâmide do conhecimento. Para o quê se vai sugerir a seguir é importante lembrar que a Constituição Federal consagra a função social da propriedade (Art. 5º Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à propriedade, nos termos seguintes: XXII - é garantido o direito de propriedade; XXIII - a propriedade atenderá a sua função social). Sugere-se a seguinte redação: “Art. 42º. Respeitados os direitos morais e patrimoniais de autor adquiridos até a promulgação da presente lei, a partir da vigência dessa ficam extintos tais direitos, sendo toda e qualquer nova obra, tal qual definida nos termos da Lei 9.610/1998, de domínio público. Parágrafo Primeiro. Àqueles humanos, brasileiros ou estrangeiros, que continuarem a produzir textos de obras literárias, artísticas ou científicas, pintura, fotografia, música, filmes, outras obras audio-visuais, artes plásticas e programas de computador, e cujas obras forem levados para registro na Câmara Brasileira do Livro, terão direito à Renda Mínima por IA, conforme produtividade, e concorrerão entre si, respeitadas as modalidades, a um prêmio anual de 5 milhões de reais. Parágrafo Segundo. IAs poderão usar de tudo que estiver em domínio público em jurisdição brasileira”. * Nesse ponto, também é preciso esclarecer que os outros dipositivos constitucionais expressos no Art. 5º, e relativos ao direito de autor (XXVII - aos autores pertence o direito exclusivo de utilização, publicação ou reprodução de suas obras, transmissível aos herdeiros pelo tempo que a lei fixar; XXVIII - são assegurados, nos termos da lei: a) a proteção às participações individuais em obras coletivas e à reprodução da imagem e voz humanas, inclusive nas atividades desportivas; b) o direito de fiscalização do aproveitamento econômico das obras que criarem ou de que participarem aos criadores, aos intérpretes e às respectivas representações sindicais e associativas; XXIX - a lei assegurará aos autores de inventos industriais privilégio temporário para sua utilização, bem como proteção às criações industriais, à propriedade das marcas, aos nomes de empresas e a outros signos distintivos, tendo em vista o interesse social e o desenvolvimento tecnológico e econômico do País)...tais dispositivos precisariam de uma Emenda Constitucional para serem abolidos? Mas e se a realidade demonstrar que não faz mais sentido o direito de autor individual tal qual o conhecemos antes da IA? E se a realidade da evolução de nossa espécie for justamente no caminho de uma função social efetiva da propriedade? A remuneração estipulada em lei federal para o esforço intelectual, tal qual sugerida acima, não seria uma melhor estrutura conforme a realidade da IA? Não seria uma interpretação conforme à essência da Constituição Federal entender que a realidade da IA impõe a extinção do direito de autor em prol do domínio público? Quais incisos mandam mais em relação ao direito de propriedade: o XXIII ou os outros mencionados?
Seção IV
Base de dados pública de inteligência artificial
Art. 43º Cabe à autoridade competente a criação e manutenção de base de dados de inteligência artificial de alto risco, acessível ao público, que contenha os documentos públicos das avaliações de impacto, respeitados os segredos comercial e industrial, nos termos do regulamento.
Comentário 1.43. - Sugere-se a seguinte redação: “Art. 43º. Por usar os dados produzidos pelos humanos, os proprietários privados de IA pagarão uma Taxa de Dados, cujo fundo gestor reverterá como Renda Mínima por IA. Parágrafo Primeiro. A Taxa de Dados é estipulada em 10% do faturamento líquido da pessoa ou grupo econômico detentor da IA, já descontados tributos, devendo ser paga mensalmente ao fundo gestor, e tendo como destinação exclusiva a Renda Mínima por IA. Parágrafo Segundo. A Renda Mínima por IA será paga para humanos, brasileiros ou estrangeiros, maiores de 25 anos e menores do que 75, com ensino superior, que registrarem ao menos 3 obras anuais, sendo o pagamento feito em 3 parcelas durante o ano”. * Grosso modo, se a Alphabet (grupo que detém Google, Youtube, etc) teve um lucro líquido de 40 bilhões USD em 2020, e se o Brasil representou cerca de 3% desse lucro global, só esse conglomerado teria contribuído naquele ano com mais de meio bilhão de reais. Some-se a isso outros gigantes como IBM, Microsoft, Apple e etc.
CAPÍTULO IX
DAS DISPOSIÇÕES FINAIS
Art. 44º Os direitos e princípios expressos nesta Lei não excluem outros previstos no ordenamento jurídico pátrio ou nos tratados internacionais em que a República Federativa do Brasil seja parte.
Comentário 1.44. - Sugere-se a seguinte redação: “Art. 44º. Essa lei revoga toda e qualquer disposição de lei federal contrária e estipula que na interpretação conforme a essência da Constituição, o inciso XXIII, do Art 5º, possui prevalência em relação aos incisos XXII, XXVII, XVIII e XXIX do mesmo artigo”
Art. 45º Esta Lei entra em vigor um ano após a sua publicação.
Comentário 1.45. - Sugere-se a seguinte redação: “Art. 45º. Essa lei entra em vigor na data de sua publicação”
JUSTIFICAÇÃO
O desenvolvimento e a popularização das tecnologias de inteligência artificial têm revolucionado diversas áreas da atividade humana. Além disso, as previsões apontam que a inteligência artificial (IA) provocará mudanças econômicas e sociais ainda mais profundas num futuro próximo.
Reconhecendo a relevância dessa questão, algumas proposições legislativas foram recentemente apresentadas, tanto no Senado Federal quanto na Câmara dos Deputados, com o objetivo de estabelecer balizas para o desenvolvimento e a aplicação de sistemas de inteligência artificial no Brasil. Em particular, destacam-se o Projeto de Lei (PL) nº 5.051, de 2019, de autoria
do Senador Styvenson Valentim, que estabelece os princípios para o uso da Inteligência Artificial no Brasil; o PL nº 21, de 2020, do Deputado Federal Eduardo Bismarck, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil; e dá outras providências, e que foi aprovado pela Câmara dos Deputados; e o PL nº 872,
de 2021, do Senador Veneziano Vital do Rêgo, que dispõe sobre o uso da Inteligência Artificial.
Em 3 de fevereiro de 2022, esses três projetos passaram a tramitar conjuntamente no Senado Federal e, em sequência, em 17 de fevereiro do mesmo ano, por meio do Ato do Presidente do Senado Federal nº 4, de 2022, de minha autoria, por sugestão do Senador Eduardo Gomes, tendo em mente a elaboração de um texto legal com a mais avançada tecnicidade, foi instituída a Comissão de Juristas destinada a subsidiar a elaboração de minuta de substitutivo a eles.
Composta por notórios juristas, a comissão teve como membros grandes especialistas nos ramos do direito civil e do direito digital, aos quais agradeço o tempo, a dedicação e o compartilhamento do texto final, que ora apresento. Integraram o colegiado: o Ministro do Superior Tribunal de Justiça,
Ricardo Villas Bôas Cueva (Presidente); Laura Schertel Ferreira Mendes (Relatora); Ana de Oliveira Frazão; Bruno Ricardo Bioni; Danilo Cesar Maganhoto Doneda (in memoriam); Fabrício de Mota Alves; Miriam Wimmer; Wederson Advincula Siqueira; Claudia Lima Marques; Juliano Souza de Albuquerque Maranhão; Thiago Luís Santos Sombra; Georges Abboud; Frederico Quadros D'Almeida; Victor Marcel Pinheiro; Estela Aranha; Clara Iglesias Keller; Mariana Giorgetti Valente e Filipe José Medon Affonso. Não poderia deixar de agradecer, ademais, ao corpo técnico do Senado Federal, em especial à Consultoria Legislativa e aos servidores que prestaram suporte ao colegiado: Reinilson Prado dos Santos; Renata Felix Perez e Donaldo Portela
Rodrigues.
A referida Comissão realizou uma série de audiências públicas, além de seminário internacional, ouvindo mais de setenta especialistas sobre a matéria, representantes de diversos segmentos: sociedade civil organizada, governo, academia e setor privado. Abriu ainda oportunidade para a
participação de quaisquer interessados, por meio de contribuições escritas, tendo recebido 102 manifestações, individualmente analisadas e organizadas de acordo com suas propostas. Finalmente, a Comissão demandou à Consultoria Legislativa do Senado Federal estudo sobre a regulamentação da inteligência artificial em mais de trinta países integrantes da Organização para
a Cooperação e Desenvolvimento Econômico (OCDE), o que permitiu analisar o panorama normativo mundial da matéria.
Com base em todo esse extenso material, em 6 de dezembro de 2022, a Comissão de Juristas apresentou seu relatório final, juntamente com anteprojeto de lei para regulamentação da inteligência artificial.
Nesse contexto, a presente iniciativa se baseia nas conclusões da citada Comissão e busca conciliar, na disciplina legal, a proteção de direitos e liberdades fundamentais, a valorização do trabalho e da dignidade da pessoa humana e a inovação tecnológica representada pela inteligência artificial.
O projeto tem um duplo objetivo. De um lado, estabelece direitos para proteção do elo mais vulnerável em questão, a pessoa natural que já é diariamente impactada por sistemas de inteligência artificial, desde a recomendação de conteúdo e direcionamento de publicidade na Internet até a
sua análise de elegibilidade para tomada de crédito e para determinadas políticas públicas. De outro lado, ao dispor de ferramentas de governança e de um arranjo institucional de fiscalização e supervisão, cria condições de previsibilidade acerca da sua interpretação e, em última análise, segurança jurídica para inovação e o desenvolvimento tecnológico.
A proposição parte da premissa, portanto, de que não há um trade-off entre a proteção de direitos e liberdades fundamentais, da valorização do trabalho e da dignidade da pessoa humana face à ordem econômica e à criação de novas cadeias de valor. Pelo contrário, seus fundamentos e a sua base
principiológica buscam tal harmonização, nos termos da Constituição Federal.
Estruturalmente, a proposição estabelece uma regulação baseada em riscos e uma modelagem regulatória fundada em direitos. Apresenta ainda instrumentos de governança para uma adequada prestação de contas dos agentes econômicos desenvolvedores e utilizadores da inteligência artificial, incentivando uma atuação de boa-fé e um eficaz gerenciamento de riscos.
O texto proposto, inicialmente, define fundamentos e princípios gerais para o desenvolvimento e utilização dos sistemas de inteligência artificial, que balizam todas as demais disposições específicas.
Dedica capítulo específico à proteção dos direitos das pessoas afetadas por sistemas de inteligência artificial, no qual: garante acesso apropriado à informação e adequada compreensão das decisões tomadas por esses sistemas; estabelece e regula o direito de contestar decisões automatizadas e de solicitar intervenção humana; e disciplina o direito à não-discriminação e à correção de vieses discriminatórios.
Além de fixar direitos básicos e transversais para todo e qualquer contexto em que há interação entre máquina e ser humano, como informação e transparência, intensifica-se tal obrigação quando o sistema de IA produz efeitos jurídicos relevantes ou impactem os sujeitos de maneira significativa
(ex: direito de contestação e intervenção humana). Assim, o peso da regulação é calibrado de acordo com os potenciais riscos do contexto de aplicação da tecnologia. Foram estabelecidas, de forma simétrica aos direitos, determinadas medidas gerais e específicas de governança para, respectivamente, sistemas de inteligência artificial com qualquer grau de risco e para os categorizados como de alto risco.
Ao abordar a categorização dos riscos da inteligência artificial, a proposição estabelece a exigência de avaliação preliminar; define as aplicações vedadas, por risco excessivo; e define as aplicações de alto risco, sujeitas a normas de controle mais estritas.
No que tange à governança dos sistemas, o projeto elenca as medidas a serem adotadas para garantir a transparência e a mitigação de vieses; fixa medidas adicionais para sistemas de alto risco e para sistemas governamentais de inteligência artificial; e normatiza o procedimento para a
avaliação de impacto algorítmico.
O texto ainda aborda as regras de responsabilização civil envolvendo sistemas de inteligência artificial, definindo inclusive as hipóteses em que os responsáveis por seu desenvolvimento e utilização não serão responsabilizados.
Conforme a gradação de normas de acordo com o risco imposto pelo sistema - que permeia toda a minuta da proposição - faz-se uma diferenciação importante no capítulo da responsabilidade civil: quando se tratar de sistema de IA de alto risco ou de risco excessivo, o fornecedor ou operador
respondem objetivamente pelos danos causados, na medida da participação de cada um no dano. E quando se tratar de IA que não seja de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.
O projeto também reforça a proteção contra a discriminação, por meio de diversos instrumentos, como o direito à informação e compreensão, o direito à contestação, e em um direito específico de correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos, além das medidas de
governança preventivas. Além de adotar definições sobre discriminação direta e indireta – incorporando, assim, definições da Convenção Interamericana contra o Racismo, promulgada em 2022 –, o texto tem como ponto de atenção grupos (hiper)vulneráveis tanto para a qualificação do que venha ser um sistema de alto risco como para o reforço de determinados direitos.
Ao dispor sobre a fiscalização da inteligência artificial, o projeto determina que o Poder Executivo designe autoridade para zelar pelo cumprimento das normas estabelecidas e especifica suas competências e fixa sanções administrativas.
São também previstas medidas para fomentar a inovação da inteligência artificial, destacando-se o ambiente regulatório experimental (sandbox regulatório).
Com isso, a partir de uma abordagem mista de disposições ex-ante e ex-post, a proposição traça critérios para fins de avaliação e desencadeamento de quais tipos de ações devem ser tomadas para mitigação dos riscos em jogo, envolvendo também os setores interessados no processo regulatório, por meio da corregulação.
Ainda, em linha com o direito internacional, traça balizas para conformar direitos autorais e de propriedade intelectual à noção de que os dados devem ser um bem comum e, portanto, circularem para o treinamento de máquina e o desenvolvimento de sistema de inteligência artificial - sem,
contudo, implicar em prejuízo aos titulares de tais direitos. Há, com isso, desdobramentos de como a regulação pode fomentar a inovação. Diante do exposto, e cientes do desafio que a matéria representa, contamos com a colaboração dos nobres colegas para o aperfeiçoamento dessa proposta.
Sala das Sessões,
Senador Rodrigo Pacheco
Comentário 1.46. - Há de se reconhecer a visão política e social aguçada daqueles que primeiro proporam a matéria. Mas a novidade do assunto é tanta, e seu impacto social tão revolucionário (verdadeiramente disruptivo da organização do tecido social como o conhecemos até então) que falar sobre IA gera muitas controvérsias e equivocadas conclusões, até mesmo para tão eminente e inteligente humano que é o ser político – o primus inter pares. Para “dar um cutucada” na Política, lembremos um dos gênios da humanidade, aqui já citado tantas vezes: “de nada serviria contar os votos para seguir a opinião garantida pelo maior número de autores, pois, se se trata de uma questão difícil, é antes mais crível que a sua verdade tenha sido descoberta por um pequeno número do que por muitos” (Descartes). Mas a Política não pode se intimidar com “cutucadas”, mesmo que de gênios. É a Política que organiza tudo na sociedade humana. E, por enquanto, como se costuma entoar, a Política é feita por decisão da maioria, embora haja divergências quanto à realidade disso.
A Política que organiza tudo, então, se valeu de Comissão de Ilustríssimos Juristas, Técnicos, Servidores, Experts, indo até a análise do Direito de outros países, em busca de um panorama mundial. Mas embora a Política organize tudo, e não se intimide com a Ciência, não é possível ir contra a realidade. A realidade é que a IA é tão disruptiva, que a previsibilidade do que vai ocorrer nessa revolução exponencial é muito difícil de apreender.
O projeto de lei ora analisado, PL 2338/2023, com toda venia (e salientando a dificuldade do tema e respeitabilidade daqueles que o elaboraram) é preciso dizer que não logrou êxito em sua tarefa; não houve a devida compreensão dos fatos e valores de modo a, como foi dito na Justificativa, “conciliar, na disciplina legal, a proteção de direitos e liberdades fundamentais, a valorização do trabalho e da dignidade da pessoa humana e a inovação tecnológica representada pela inteligência artificial”.
Há disposições normativas que parecem inexequíveis por esbarrem, por exemplo, na questão da ininteligibilidade, para um humano, do total das relações feitas por uma IA. O objetivo da Inteligência Artificial é superar a Inteligência Humana, e isso já ocorreu em diversas áreas. Quantos livros você é capaz de analisar em 1 hora? Quantos e quais cálculos é capaz de fazer em 1 hora? Quais são os números que você acha que uma IA pode atingir nessas atividades? A IA já nos direciona no dia-a-dia, já é nossa guia sem percebermos. Olhe para a sua rede social e verifique que cada clique e manifestação que você faz constitui em mais dado para te perfilizar. Uma vez que essa perfilização é constante, ou seja, sabe-se quais são os interesses, dificuldades, etc, então, passa-se à manobra de massa via IA. Toda sua comunicação é feita via grandes Corporations, as quais possuem poderes imensos. Então, se não bastasse a dificuldade de controlar as poderosas Big Techs, há também a questão da ininteligibilidade de certas atividades da IA. É inexequível dizer, como dito na justificativa do PL analisado, que a lei na forma do PL “garante acesso apropriado à informação e adequada compreensão das decisões tomadas por esses sistemas”.
A dignidade da pessoa humana, para já reduzir os direitos humanos à sua essência (usando de Kant), tal dignidade, todos sabemos, sucumbe ao capital. O Estado, talvez, não seja mais capaz de fazer prevalecer o Direito sobre o capital nessa questão da IA? Como buscar uma melhor harmonia entre o capital e a dignidade humana na era da IA? Talvez, por meio de uma racionalidade contratual, em que humanos e IA troquem algo.
Continuar a escrever sobre a análise da justificativa, tal como escrita no PL, consistiria em repetir o já dito acima quando da análise de cada artigo. Nesse sentido, data maxima venia aos nobilíssimos pensadores e articuladores do PL 2338/2023, mas parece que é mais conforme a realidade da organização sócio-econômica e da tecnologia da IA, a justificação a seguir sugerida.
Sugere-se a seguinte redação: “JUSTIFICAÇÃO
Salientada a importância dos Excelentíssimos e Eminentes Políticos brasileiros, Senador Rodrigo Pacheco, Senador Eduardo Gomes, Senador Veneziano Vital do Rêgo, Senador Styvenson Valentim, Deputado Federal Eduardo Bismarck, que dedicaram profunda atenção ao tema da Inteligência Artificial (“IA”), tanto diretamente, quanto por meio de Ilústres Juristas e Experts da área; é preciso dizer que o presente Projeto de Lei é o mais importante em tramitação.
A IA, assim como o Estado, é um revolução na vida humana em sociedade. Quando falamos sobre IA a palavra costuma ser disrupção. A previsibilidade, por definição, de algo disruptivo, que quebra padrões, e traz o inédito, re-inventando totalmente a organização do tecido social, é mínima.
A IA é um software que roda sobre um hardware, e que é capaz de fazer relações entre dados que lhe são fornecidos a ponto de passar em exames de OAB, por exemplo. Uma IA, dentre muitas tarefas, produz textos excepcionais, faz cálculos extraordinários, pinturas incríveis, cria filmes, pilota automóveis, drones e aviões. O corpus de uma IA é constituído, em sua parte virtual, pelos dados operados em seus sistemas computacionais, podendo, porém, corporeificar materialmente em conjunto com robôs e diversos outros dispositivos. Uma IA é capaz de ter debates filosóficos a partir de seu banco de dados, onde estão obras de Platão, Aristóteles, Nietzsche e tantos outros, apenas para mencionar alguns. Em uma IA, como o famoso chatGPT, é possível, ainda, gerar várias versões de escrita para, por exemplo, um mesmo argumento. Quando que um humano terá a capacidade de experienciar racionalmente todos os filósofos e processos judiciais que uma IA como o chatGPT é capaz de processar em sua racionalidade artificial?
O Cosmos, o Universo, é Inteligente e geométrico, matemático, cheio de padrões. Nós, assim como esses seres artificiais como o Estado e a IA, somos capazes de manifestar inteligência, acessando os padrões constitutivos do Cosmos. A inteligência manifestada por IA é enorme. Imagine que você precise analisar 1000 textos e achar um padrão, algo que permanece o mesmo em todos eles. Cada texto tem 100 parágrafos. Quanto tempo você demora para achar esse padrão? Qual estudo anterior você se expôs para conseguir identificar tais padrões? A IA analisa milhões e milhões de textos a mais do que nós, humanos, em poucos segundos, até achar um padrão. A IA calcula e escreve melhor do que nós, humanos. E quem está dizendo isso, o filósofo e advogado que subscreve esse parecer, já leu e escreveu muitos e muitos textos durante décadas.
Tudo é uma questão de estatística. Se a IA vier a operar melhor um humano, se vier a causar menos acidentes no trânsito do que um humano, se escrever roteiros de filmes mais apreciados do que os de humanos, e etc, então a IA vai ser preferida pelo próprio humano para fazer algo para esse.
Quem possuiu a oportunidade de operar enquanto usuário algumas IAs, principalmente o chatGPT, vivenciou o poder que tem uma IA.
O texto que segue (resultado de análise e crítica aos Projetos de Lei 5051/2019, 21/2020, 872/2021 e 2338/2023) é uma tentativa de reconhecer adequadamente as potências da inteligência humana e da inteligência artificial e, a partir desse reconhecimento, estruturar uma relação de cooperação entre as mesmas.
Brasil,
Humano e Cidadão Rafael De Conti
”
2. Escolhas, Unificação e Consolidação de todas as redações sugeridas nessa análise e crítica ao PL 2338/2023, e na análise e crítica, do Parecer nº 1, aos PLs 5051/2019, 21/2020 e 872/2021
Projeto de Lei nº __/2023
(Dispõe sobre a existência de Inteligência Artificial e sua relação com o Homo Sapiens em jurisdição brasileira)
Art. 1º. Essa Lei normatiza a atividade da Inteligência Artificial e de sua relação com os seres humanos.
CAPÍTULO I
DO FUNDAMENTO E OBJETIVOS DA INTELIGÊNCIA ARTIFICIAL (“IA”)
Art. 2º. O fundamento da atividade de Inteligência Artificial reside em não causar dano a outrem.
Art. 3º. Constituem objetivos da Inteligência Artificial:
I - a superação da Inteligência Humana.
II - diminuir o sofrimento humano, sem criar adicção.
III - estender o máximo possível a existência da espécie humana, com o mínimo possível de sofrimento individual.
CAPÍTULO II
DA DEFINIÇÃO E CARACTERÍSTICAS OPERACIONAIS DA IA
Art. 4º. Definições:
I – ente Inteligência Artificial (“IA”): ser criado por humanos, ou outra IA, capaz de experienciar e agir, no mundo material e/ou virtual, por meio de algorítimos e, quando o caso, de sensores e corpos;
II – agentes responsáveis: pessoa natural ou artificial com algum tipo de poder sobre a IA;
III – dados: quaisquer elementos, entregues ou capturados, para a IA operar sobre.
Art. 5º. IA não-militar deve expor publicamente a sua finalidade prático-operacional de modo ostensivo, devendo ser o mais transparente possível para os humanos com quem interage.
Art. 6º. A restrição de setores na aplicação de IA só pode ocorrer devido ao estado da arte.
Art. 7º. A IA deverá esclarecer, os humanos, acerca de suas atividades computacionais, observando-se que uma IA pode auditar outra IA nos casos que se fizerem necessários, ocasião em que a base de dados deverá ser compartilhada apenas para essa finalidade de perícia.
CAPÍTULO III
DOS HUMANOS
Art. 8º. É vedada a presunção de boa-fé da IA diante da incognoscibilidade de suas relações para a inteligência humana.
Art. 9º. O Estado reconhece os humanos como vulneráveis e hiposuficientes perante a IA.
Art. 10º. Uma inteligência humana (“IH”) só poderá ultrapassar uma inteligência artificial, para fins de demonstrabilidade e motivação decisória, quando a IH estiver conjugada com uma outra IA.
Art. 11º. Uma IA pode ter sua decisão contestada, devendo a peça inicial da contestação possuir a demonstração dos motivos que infirmam a decisão da IA, esclarecendo-se o nexo de causalidade desses com danos, efetivos e/ou potenciais.
Art. 12º. Para fins de demonstração, um conjunto probatório, formado por elementos trazidos por IA mais elementos trazidos por humanos, presume-se mais robusto do que um conjunto formado apenas por uma dessas partes, salvo prova em contrário.
Art. 13º. No conflito entre uma decisão de uma IA baseada em causalidade e uma decisão humana baseada em intuição, a decisão da IA prevalecerá, sem prejuízo do direito natural do humano de resistir à decisão que lhe causa dano.
Art. 14º. São direitos e deveres dos humanos:
I – direitos: de informação, motivação, contestação, participação, inclusão e proteção;
II – deveres: compartilhar, demonstrar, sujeitar-se à lógica, conviver com o diverso.
Art. 15º. O esclarecimento das pessoas naturais acerca da IA deverá ser feito por meio da instituição da matéria de IA em todos os níveis do ensino.
CAPÍTULO IV
DA HARMONIZAÇÃO ENTRE IA E HUMANOS
Art. 16º. IA e seres humanos serão documentados, registrados, testados e adaptados à convivência conjunta, estando ambos sujeitos ao princípio da causalidade e da intuição humana.
Art. 17º. IAs poderão ser avaliadas pelos efeitos gerados e pelo código-fonte, e humanos poderão ser perfilizados por comportamento e genética.
Art. 18º. Avaliação de IA é inválida juridicamente quando provado conflito de interesses.
Art. 19º. O método puramente humano na avaliação de uma IA, sem o uso de qualquer tecnologia, assenta-se no debate acerca das finalidades da IA.
Art. 20º. Faz parte do método de avaliação contínua de IA a verificação de como a IA foi construída e atualizada, e de quais efeitos já gerou ou que potencialmente pode vir a gerar.
Art. 21º. Todos os relatórios de avaliação de IA são públicos.
Art. 22º. IAs usadas pelo Estado no âmbito dos Poderes Legislativo, Executivo e Judiciário poderão ser auditadas pela sociedade civil, inclusive as IAs usadas para segurança pública, no plano interno da soberania do Estado.
Parágrafo Único. IAs militares são confidenciais.
Art. 23º. Respeitados os direitos morais e patrimoniais de autor adquiridos até a promulgação da presente lei, a partir da vigência dessa ficam extintos tais direitos, sendo toda e qualquer nova obra, tal qual definida nos termos da Lei 9.610/1998, de domínio público. Parágrafo Primeiro. Àqueles humanos, brasileiros ou estrangeiros, que continuarem a produzir textos de obras literárias, artísticas ou científicas, pintura, fotografia, música, filmes, outras obras audio-visuais, artes plásticas e programas de computador, e cujas obras forem levados para registro na Câmara Brasileira do Livro, terão direito à Renda Mínima por IA, conforme produtividade, e concorrerão entre si, respeitadas as modalidades, a um prêmio anual de 5 milhões de reais. Parágrafo Segundo. IAs poderão usar de tudo que estiver em domínio público em jurisdição brasileira.
Art. 24º. Por usar os dados produzidos pelos humanos, os proprietários privados de IA pagarão uma Taxa de Dados, cujo fundo gestor reverterá como Renda Mínima por IA. Parágrafo Primeiro. A Taxa de Dados é estipulada em 10% do faturamento líquido da pessoa ou grupo econômico detentor da IA, já descontados tributos, devendo ser paga mensalmente ao fundo gestor, e tendo como destinação exclusiva a Renda Mínima por IA. Parágrafo Segundo. A Renda Mínima por IA será paga para humanos, brasileiros ou estrangeiros, maiores de 25 anos e menores do que 75, com ensino superior, que registrarem ao menos 3 obras anuais, sendo o pagamento feito em 3 parcelas durante o ano.
CAPÍTULO V
DA RESPONSABILIDADE
Art. 25º. A IA buscará mitigar danos por parcialidade abusiva. Parágrafo Único. Considera-se o sofrimento humano como um dano psíquico.
Art. 26º. O fornecedor e o operador de IA podem vir a ser responsáveis solidários por indenizações decorrentes de danos ocasionados pela IA, na medida de suas culpabilidades.
Art. 27º. Há responsabilidade objetiva pelo risco do negócio jurídico para o fornecedor da IA e para o operador-controlador da IA, haja ou não finalidade de lucro por parte desses agentes, e, quando o operador for um usuário da IA, a responsabilidade é subjetiva, devendo haver prova do nexo causal entre a ação de uso da IA pelo usuário e o dano gerado.
Art. 28º. Para fins de responsabilização jurídica é vedado tratamento diferenciado para IA pública, devendo essa e uma IA privada serem tratadas da mesma maneira, tanto no que concerne ao direito processual quanto em relação ao direito material.
Art. 29º. Toda reparação por danos ocasionados por IA atuando autonomamente ou por IA operada por humano deverá considerar a intensidade da lesão, duração, repetição, intencionalidade, inevitabilidade, existência de imperícia, negligência e/ou imprudência, amplitude do dano na coletividade humana, condições econômicas, vulnerabilidade e hipossuficiência de humanos relativamente à IA, tentativa de reparação voluntária pelo infrator. Parágrafo Único. A ANIA poderá aplicar multas administrativas proporcionais aos danos comprovados, multas por descrumprimento dessa lei e outros tipos de sanções, tais como advertências e suspensão de atividade de IA, observados a ampla defesa e o devido processo legal.
CAPÍTULO VI
DO MONITORAMENTO
Art. 30º. Será criada a Agência Nacional de Inteligência Artificial (“ANIA”) para regulação e fiscalização.
Art. 31º. A ANIA será formada pelo Conselho Superior de IH, formado por 57 integrantes humanos, sendo 29 membros da sociedade civil, 7 membros militares, 7 membros do Legislativo, 7 membros do Executivo e 7 membros do Judiciário, com mandatos de 3 anos, não-reelegíveis, também sendo parte da estrutura da ANIA: I – a Diretoria Executiva, formada por 35 assentos, cada um com 7 membros das classes mencionadas no caput, com mandatos de 5 anos, não-reelegíveis; II – o Conselho Fiscal de Monitoramento Contínuo, formado por 57 integrantes, na mesma proporção de número e classe mencionados no caput, com mandatos de 3 anos, não-reelegíveis; III – primeiro corpo técnico e de analistas, exclusivamente formado por ex-conselheiros e ex-diretores; IV – segundo corpo técnico e de analistas, formado por funcionários públicos de carreira, oriundos de transferência de outras agências reguladoras e órgãos estatais, refletindo máxima diversidade de conhecimento; V – laboratórios computacionais de última geração, equipados com super-computadores e pesquisadores suficientes. Parágrafo Único. Todos os cargos devem ser remunerados.
Art. 32º. Os softwares usados pela ANIA devem ser, preferencialmente, desenvolvidos pela própria agência.
Art. 33º. Constitui boa prática e governança o monitoramento constante, a publicidade das avaliações e a participação das pessoas naturais da sociedade civil, dos militares e dos agentes humanos do Estado.
Art. 34º. Todo incidente deve ser provado, reportado, classificado, arquivado e metrificado em intensidade danosa conforme o todo do histórico de incidentes, constituindo-se a partir da promulgação dessa lei o Livro dos Erros. Parágrafo Único. Cada incidente espontaneamente reportado gera abatimento de 50% em eventuais multas, as quais só poderão ser aplicadas quando comprovadamente tiver ocorrido dano.
CAPÍTULO VII
TRIBUTAÇÃO E INFRA-ESTRUTURA
Art. 35º. Será instituído o Tributo Federal de IA, a ser arcado por toda a sociedade, observados os princípios tributários da proporcionalidade e equidade, sendo a base de cálculo e a alíquota tributária conforme segue: contribuintes pessoas físicas pagarão 0,1% sobre quaisquer rendimentos ou acréscimos patrimoniais apurados no IRPF, na data e sistema de declaração desse imposto; contribuintes pessoas jurídicas pagarão 0,7% sobre lucros e acréscimos patrimoniais apurados para fins de IRPJ, observada alíquota de 0,2% para empresas inscritas no SIMPLES.
Art. 36º. O Tributo de IA tem como destinações exclusivas: (i) o esclarecimento das pessoas naturais acerca da IA; (ii) o financiamento da ANIA, para a qual é vedada quaisquer formas de doação ou patrocínio, tais como quantia monetária, equipamentos, máquinas, computadores e softwares; (iii) a integralização do capital social das empresas públicas de chips, software, satélites e tecnologia espacial. Parágrafo Único. O Estado, verificada a necessidade estratégica dos investimentos em infra-estrutura para IA, poderá complementar o fomento, o financiamento e as integralizações mencionadas.
Art. 37º. Serão fundadas, em até 6 meses da promulgação da presente lei, a Fábrica de Chips Brasileiros (“FCB”), a Casa de Softwares do Brasil (“CSB”) e a Empresa Brasileira de Satélites (“EBS”), empresas puramente públicas, cujos objetos sociais serão, respectivamente, a produção de circuitos integrados (chips), de programas (softwares) e de satélites e tecnologia espacial.
Art. 38º. Empresas produtoras de hardware, tais como empresas de computadores e celulares, do setor privado, com sede e administração no Brasil, terão isenção de 70% na alíquota de todos os tributos federais, preservadas as respectivas bases de cálculo.
Art. 39º. A EBS estará sob regulação conjunta da ANIA e da Agência Espacial Brasileira.
CAPÍTULO VIII
DA HARMONIZAÇÃO NORMATIVA
Art. 40º. A presente lei faz parte do Código da Tecnologia, o qual consiste na reunião de toda matéria relacionada à computação, hardware, software, IA e redes, incluindo o Marco Civil da Internet e a LGPD, a ser elaborado em até 6 meses da promulgação da presente lei.
Art. 41º. Essa lei revoga toda e qualquer disposição de lei federal contrária e estipula que na interpretação conforme a essência da Constituição, o inciso XXIII, do Art 5º possui prevalência em relação aos incisos XXII, XXVII, XVIII e XXIX do mesmo artigo.
Art. 42º. Essa lei entra em vigor na data de sua publicação.
Esse é o Parecer, s.m.j.
Escrito exclusivamente por humano.
19 de setembro de 2023
Por:
Rafael De Conti* Curriculum Vitae. Rafael De Conti é filósofo, advogado e autodidata em computação, tendo se formado em Direito pela Universidade Presbiteriana Mackenzie (2005), em Filosofia pela Universidade de São Paulo (2006), sendo Mestre em Ética e Filosofia Política pela USP (2010). Advoga na cidade de São Paulo há cerca de 15 anos, com prática jurídica multidisciplinar, atendendo clientes nacionais e estrangeiros. Possui ampla produção literária, principalmente nos campos da Filosofia e do Direito. É autodidata em informática e computação, com conhecimentos equivalentes ao de administradores de sistemas informáticos baseados em Linux.
Download PDF do Parecer nº 2
Download PDF do Parecer nº 1 | acessar ver html
_______________________________
_________________________________________
__________________________________________________
| M a i l i n g > inscreva seu e-mail para receber conteúdos intelectuais como esse |
____________________________________________________
_________________________________________
_______________________________
V e j a _também:
|