o Entenda o caso!
A substituição de um defensor humano por uma máquina vai ser testada em um julgamento de trânsito em um tribunal dos Estados Unidos. O local, o nome do réu e a data exata do julgamento estão sendo mantidos em sigilo pela empresa de tecnologia que criou o protótipo.
Na prática, não vai ter uma máquina diante do juiz e do réu. A inteligência artificial vai ficar conectada via telefone celular. O robô ouvirá a leitura da peça acusatória durante a audiência e, no momento oportuno, instruirá o réu sobre o que dizer por meio de um fone de ouvido e apresentará os argumentos que ele deve usar em sua defesa.
Se der certo, a máquina de inteligência artificial vai duelar com a acusação apresentando todos os argumentos jurídicos disponíveis, bem como as principais decisões jurisprudenciais em casos semelhantes para convencer o juiz a decidir favoravelmente ao cliente do robô.
AGORA, VAMOS A ANÁLISE DO CASO.
Através de Big Data, faz-se a estudo (ou não) do perfil.
Logo, precedentes, julgamentos anteriores, serão usados para a tese defensiva (ou não)
As AIs, são “alimentadas” pela história (boa e ruim)
Mesmo que uma AI, faça trabalho que humanamente seja impossível, falta sensibilidade aliado a racionalidade
Ao buscar, dados pelo BIG DATA, a maioria das condenações, são de pobres, pretos (adentro no âmbito criminal) , ou seja, mesmo que seja um inocente, ao cruzar os dados, o risco de erros judiciários, serão ainda maiores.
Uma equipe da Universidade da Virgínia fez um estudo que indicou mais uma vez, o que muitos especialistas vêm denunciando: a inteligência artificial não apenas evita o erro humano derivado de seus preconceitos, como também pode piorar a discriminação. E está reforçando muitos estereótipos.
Os algoritmos herdam vieses e preconceitos presentes nas bases de dados (alimentadas por seres humanos) e nas mãos dos programadores que os desenvolvem. Os inovadores, os inventores, tendem a ser homens brancos de boa família, e isso de alguma forma acaba aparecendo no fruto do seu trabalho.
Ao realizar uma pequena rápida pelo Google com a seguinte frase:
Fotos de pessoas cozinhando, o Google através de algoritmos assimila que, se está numa cozinha, em frente ao fogão, logo deve ser uma mulher. Sendo que 33%somente das fotos são de homens.
E alguma vez você digitou a palavra lésbica no mecanismo de busca mais famoso da Internet? Certamente os primeiros resultados sugeriram páginas pornográficas.
Talvez você tenha escrito essa palavra em busca de conteúdo educacional, como uma curiosidade ou como uma maneira de descobrir e explorar sua própria sexualidade, mas o Google não parecia ter essas opções em mente.
No entanto, se você fizesse uma busca pelas palavras homossexual ou trans, os primeiros resultados levavam à Wikipedia ou as páginas de informações.
A partir de agora, na pesquisa por lésbicas no Google, você encontrará na Wikipédia e em outros conteúdos informativos.
Em New Orleans, por exemplo, tem sido feita a identificação de pessoas , pela utilização de dados de redes sociais, para determinação de perfis de possíveis criminosos, sem evidências concretas de inclinação para a criminalidade, o que gerou diversas críticas, por estabelecer uma nova forma institucional de enquadramento de potenciais infratores, dentro das teorias do Direito Penal do Inimigo
Entendeu a linha tênue, que tanto falo?
Obs: esse foi um dos textos que fiz, através do grupo de pesquisa que fazia parte.
A inteligência artificial já é uma realidade, mas juridicamente falando estamos preparados para encará-la?
Quais serão os problemas em uma sociedade baseada em algoritmos, para nós feitos de carne e osso?
O texto é de 2019, mas nunca foi tão atual.