O uso antiético da Inteligência Artificial em Sentenças Criminais

A Inteligência Artificial (IA) é uma tecnologia que tem sido cada vez mais utilizada em diversas áreas, incluindo no sistema de justiça criminal. No entanto, o uso dessa tecnologia nem sempre é ético, e pode levar a decisões injustas e discriminatórias.


Área de aplicação da IA em sentenças criminais


Um estudo realizado pela ProPublica [1], uma organização de jornalismo investigativo sem fins lucrativos, analisou o uso de algoritmos de pontuação de risco em sentenças criminais nos Estados Unidos. Esses algoritmos são utilizados para prever a probabilidade de um réu cometer um novo crime após a sua libertação condicional. Eles são baseados em diversos fatores, como a idade do réu, a gravidade do crime anterior e o histórico criminal da família.


Decisões tomadas pela IA e sua anti-ética


O estudo da ProPublica descobriu que os algoritmos utilizados pelo sistema de justiça criminal americano eram discriminatórios contra réus negros. Os algoritmos classificavam erroneamente réus negros como sendo de alto risco em uma taxa duas vezes maior do que os réus brancos, mesmo quando os crimes anteriores eram comparáveis. Além disso, os algoritmos classificavam erroneamente réus brancos como sendo de baixo risco em uma taxa duas vezes maior do que os réus negros, também com crimes anteriores comparáveis.


Essa discriminação ocorreu porque os algoritmos foram treinados com dados históricos que refletiam o preconceito racial e outras desigualdades sociais. Por exemplo, os dados usados para treinar os algoritmos foram baseados em informações coletadas por autoridades policiais, que muitas vezes detêm e prendem negros em uma proporção maior do que brancos.


Impacto do mau uso da tecnologia na sociedade


O uso anti-ético da IA em sentenças criminais tem consequências graves na sociedade, incluindo a perpetuação de desigualdades raciais e a injustiça nas decisões judiciais. A discriminação contra réus negros pode resultar em sentenças mais longas e prisões mais frequentes, contribuindo para a superlotação das prisões e a criminalização de minorias.


Minimização do problema apontado


Para minimizar o problema apontado, é necessário que os algoritmos sejam treinados com dados mais justos e representativos, que reflitam a diversidade da sociedade. Além disso, é importante que haja transparência na utilização da IA em sentenças criminais, para que possa ser verificado se os algoritmos estão de fato contribuindo para decisões justas e imparciais.


Referências:

[1] ProPublica. Machine Bias: Risk Assessments in Criminal Sentencing. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

Comentários

Postagens mais visitadas deste blog

Análise dos projetos de lei para regulamentação da profissão em informática