Desbloqueie o Editor's Digest gratuitamente
A editora do FT, Roula Khalaf, escolheu suas histórias favoritas neste boletim informativo semanal.
Os alarmistas da IA alertam que o aprendizado de máquina acabará por exterminar a humanidade, ou pelo menos nos tornará desnecessários. Mas e se a verdadeira preocupação for algo mais mundano: que as ferramentas de IA estejam simplesmente fazendo um mau trabalho?
Foi isso que a repórter e professora da Universidade de Nova Iorque, Hilke Schellman, descobriu depois de passar cinco anos a pesquisar as ferramentas atualmente amplamente utilizadas pelos empregadores para contratar, despedir e gerir. Os bots determinarão cada vez mais os anúncios de emprego que vemos online, os currículos que os recrutadores leem, quais candidatos chegam às entrevistas finais e quais funcionários recebem promoções, bônus ou cartas de demissão.Mas neste mundo, os algoritmos “definem quem somos, onde nos destacamos e onde enfrentamos dificuldades… e se os algoritmos estiverem errados?” algoritmouma explicação de suas descobertas.
Existem muitas razões pelas quais recrutadores e gestores confiam na IA. Isso nos ajuda a analisar uma quantidade incrivelmente grande de currículos e preencher vagas com mais rapidez. Para nos ajudar a encontrar pessoas talentosas, mesmo aquelas com antecedentes especiais. Para remover o preconceito humano e tomar decisões mais justas. Ou acompanhe o desempenho e identifique a equipe problemática.
Mas, segundo a experiência de Shellman, muitos dos sistemas existentes no mercado podem causar mais danos do que benefícios. Por exemplo, ao testar um software de entrevista em vídeo, você pode descobrir que ela é uma boa opção para o papel, mesmo que substitua uma resposta original plausível por uma frase repetida como “Eu adoro o trabalho em equipe” ou fale inteiramente em alemão.
Ela conversou com especialistas que auditaram ferramentas de triagem de currículos em busca de possíveis preconceitos. Eles descobriram que essas ferramentas tendiam a excluir candidatos de determinados códigos postais, que são fatores de discriminação racial. Dar tratamento preferencial a determinadas nacionalidades. Ou podem pensar que gostar de esportes dominados por homens, como o beisebol, é um indicador de sucesso. Além disso, indivíduos talentosos estão a ser despedidos ou automaticamente excluídos de empregos para os quais são elegíveis, simplesmente porque tiveram um mau desempenho em jogos online aparentemente não relacionados, utilizados para pontuar candidatos.
Depois de jogar alguns, Schellman diz que jogos rápidos de correspondência de padrões e testes de personalidade podem ajudar os recrutadores a identificar quem tem maior probabilidade de falhar em uma função ou quem é o melhor nisso. O jogo também será mais difícil para pessoas que se distraem com crianças ou têm deficiências que o software não reconhece.

Mas muitos dos problemas descobertos por Schellman não são inerentemente relacionados ao uso da IA. Se os recrutadores não entenderem por que algumas contratações se saem melhor do que outras, os desenvolvedores não conseguirão criar bons testes de recrutamento. Se o sistema for concebido principalmente para preencher rapidamente as vagas, os melhores candidatos não serão selecionados.
Schellman diz que, a menos que os desenvolvedores intervenham, as plataformas de recrutamento responderão de forma mais positiva aos recrutadores, independentemente da experiência, e veicularão mais anúncios aos candidatos (geralmente do sexo masculino) que se candidatam a cargos seniores. Os administradores também confiam cegamente em ferramentas cujo único objectivo é informar o julgamento humano, na crença errada de que, em alguns casos, irão protegê-los de contestações legais.
O aprendizado de máquina pode amplificar os preconceitos existentes de maneiras difíceis de detectar, mesmo quando os desenvolvedores estão vigilantes. Os algoritmos identificam padrões em pessoas que tiveram um bom ou mau desempenho no passado, mas não têm a capacidade de compreender se as características que encontram são importantes. E quando os algoritmos dão errado, às vezes em grande escala, pode ser muito difícil para os indivíduos determinar a causa, buscar reparação ou até mesmo encontrar alguém com quem conversar.
Talvez as seções mais úteis do livro de Shellman sejam dicas para quem procura emprego (use marcadores e evite “e” comercial para tornar seu currículo legível por máquina) e dicas para pessoas monitoradas por empregadores (e-mail Este é um apêndice que fornece a melhor maneira de mantenha a luz acesa. Mas ela também tem sugestões para os reguladores sobre como garantir que as ferramentas de IA sejam testadas antes de serem lançadas no mercado.
No mínimo, argumenta ela, os legisladores poderiam exigir transparência nos relatórios técnicos sobre os dados utilizados para treinar modelos de IA e a sua eficácia. Idealmente, as próprias agências governamentais examinarão minuciosamente as ferramentas utilizadas em áreas sensíveis, como política, classificações de crédito e vigilância no local de trabalho.
Na ausência de tais reformas, o livro de Shellman é um alerta para quem pensa que a IA pode eliminar o preconceito humano nas contratações, e um manual essencial para quem procura emprego.
Algoritmos: como a IA pode assumir o controle da sua carreira e roubar o seu futuro Escrito por Hilke Schellmann Hearst £ 22/Hachette Books $ 30, 336 páginas
Junte-se ao nosso grupo de livros on-line no Facebook. FT Livros Café inscreva-se no podcast vida e arte Não importa onde você ouça
