
Quando uma tecnologia excitante nos deixa desconfortáveis, tendemos a ser apanhados pela excitação.
Isto é especialmente verdade quando se trata de algo tão dramático como a inteligência artificial.
Artigo relacionado: Casa Branca planeja regular o uso governamental de IA
A IA pode escrever questões para exames. A IA pode escrever anúncios. A IA pode até fazer filmes. Mas há uma crença persistente de que a IA nem sempre é perfeita, especialmente quando se trata de alucinações, aqueles momentos estranhos em que a IA simplesmente resolve as coisas para você.
No entanto, a impressão é que empresas como Google e Microsoft estão trabalhando com ousadia para trazer a IA para todos os aspectos da sociedade.
Então, onde podemos realmente descobrir o que precisamos fazer com a IA para torná-la confiável?
Devo confessar que estou nessa busca há algum tempo e fiquei emocionado ao ler repetidamente as expressões de honestidade comovente e afirmativa da pesquisadora de IA e reitora da Faculdade de Engenharia da Universidade Estadual de Ohio, Ayanna Howard. .
Howard, escrevendo para o MIT Sloan Management Review, resumiu de forma muito sucinta a lacuna entre os tecnólogos e o resto do mundo.
Ela expressou um pensamento simples: “Os engenheiros não são treinados para serem cientistas sociais ou historiadores. Estamos neste campo porque o amamos e geralmente somos positivos em relação à tecnologia.” porque Esse é o nosso campo. ”
Artigo relacionado: Melhores chatbots de IA: ChatGPT não é o único que vale a pena tentar
Mas esse é exatamente o problema, disse Howard prescientemente. “Não somos muito bons em construir pontes com outras pessoas que possam traduzir o que consideramos positivo e o que sabemos ser parte negativa.”
Sim, há uma necessidade extrema de tradução e de que os engenheiros sejam um pouco mais inteligentes emocionalmente à medida que criam as tecnologias do futuro.
“primeiro [need] – E isso provavelmente requer regulamentação – As empresas de tecnologia, especialmente as de inteligência artificial e IA generativa, estão fundindo a tecnologia com o quociente emocional (QE) humano para determinar quando tais ferramentas Isso significa que precisamos encontrar maneiras de dar dicas às pessoas. ''Howard disse.
Pense nos primeiros dias da Internet. Cabia a nós decidir o que era verdade, o que era exagerado e o que era vazio total.
Artigo relacionado: Microsoft quer acabar com o abuso de chatbots de IA
Estamos muito entusiasmados, mas ainda caminhamos em direção a algum grau de certeza.
Howard explicou que enquanto a tecnologia parece funcionar, os humanos geralmente confiam nela. Mesmo que, como num experimento do qual ela participou, as pessoas seguissem cegamente o robô para longe da escada de incêndio, bem no meio de um incêndio.
Howard sugere que empresas como a ChatGPT deveriam aceitar a falta de certeza quando se trata de IA.
Isto não eliminará a necessidade de vigilância, mas certamente criará um nível mais elevado de confiança, o que é essencial para abraçar a IA em vez de temê-la ou impô-la.
Howard teme que agora qualquer pessoa possa criar produtos de IA. “Temos inventores que não sabem o que estão fazendo e estão vendendo para empresas e consumidores que confiam demais”, disse ela.
A IA generativa também mudará o atendimento ao cliente para sempre.Veja como chegar aqui
Mesmo que suas palavras possam parecer alarmantes, são verdades puras e muito positivas que revelam os desafios envolvidos em trazer uma tecnologia potencialmente revolucionária ao mundo e torná-la confiável. Não há diferença no fato de ser uma palavra.
Afinal, se a IA não é confiável, não pode ser a tecnologia que está sendo anunciada.

