Pobres e negros deveriam ter mais medo de robôs que ricos e brancos
No dia 23 de outubro do ano passado, o Waze sugeriu para os motoristas que o melhor caminho para ir do Centro de São Paulo ao Aeroporto de Congonhas era uma já engarrafada avenida 23 de maio, o que criou um congestionamento de grandes proporções. Os responsáveis pelo aplicativo confirmaram a falha, chamando-a de "incidente" e atestando que ela já havia sido corrigida.
Tenho medo dessa palavra: incidente. Qualquer coisa cabe nela, como uma rebelião após o algoritmo do Waze ter adquirido consciência e resolvido destruir a humanidade tornando a vida dos motoristas um inferno. A gente fica com medo da internet brotar uma Skynet, feito a série "O Exterminador do Futuro", quando a verdade as máquinas, se conquistarem consciência, vão nos prender no trânsito.
Brincadeiras à parte, há um debate em curso que parece ficção científica: as máquinas podem "evoluir" a ponto de ganharem vontade própria e, hipoteticamente, se voltarem contra nós?
Mas se isso acontecer um dia terá sido muito tempo depois das populações mais vulneráveis terem suas vidas transformadas em inferno pós-apocalíptico pelas máquinas, obedecendo a padrões determinados pelos grupos e setores que governam a humanidade. Ou seja, pelos homens brancos.
Nos Estados Unidos, um programa que usa inteligência artificial, desenvolvido para identificar possíveis reincidências criminais e usado em tribunais de parte do país, age de modo racista, como mostrou um levantamento feito pela agência de notícias ProPublica. Os jornalistas analisaram dados de 7 mil presos e verificaram que o programa aponta que a chance de cometer novo crime é maior entre negros do que entre brancos. A vida real, contudo, contradiz o programa: dos negros classificados como de "alto risco", 44,9% não reincidiram, índice que cai para 23,5% nos casos de brancos. Enquanto isso, 28% dos negros que receberam o rótulo de "baixo risco" social voltaram a cometer crimes. O número é de 47,7% quando se tratava de réus brancos.
Isso somado ao aprofundamento da violação da privacidade, a programas que permitem reconhecimento facial e à utilização de modelos matemáticos, podemos construir uma sociedade semelhante à do filme Minority Report, protagonizado por Tom Cruise, em que crimes são impedidos e os envolvidos presos preventivamente. Mas, nela, negros e pobres seriam sistematicamente mais punidos porque o sistema dificilmente fugirá do racismo e do preconceito social que organizam o nosso cotidiano.
Uma sociedade em que inteligência artificial seja usada para organizar a vida cotidiana baseada em como nossa sociedade é hoje (e nos dados que ela gera e que alimentam sistemas), mas sem mediação humana, pode apenas aprofundar a crueldade com a qual tratamos os grupos que tem seus direitos sistematicamente excluídos e são alvo do ódio e da intolerância. Ou alguém acredita que a máquina vai, por conta própria, ter a consciência de "consertar" o mundo a partir de um processo gerado por algoritmo sobre algoritmo e passar a ser mais justa que os humanos? Isaac Asimov se remexe no túmulo.
Antes dos avanços em Inteligência Artificial criarem qualquer ser digital supremo, consciente de si mesmo e com desejos totalitários, ela vai mudar a vida de muita gente. Para melhor e para pior, pois a culpa não é da tecnologia, mas do uso que os humanos fazem dela.
Se casos como o dos EUA crescerem e se tornarem regra, nosso futuro distópico pode até vir vestido com algo bem tecnológico, mas seguiremos cheirando a Casa Grande e Senzala.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.