Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » O ecossistema de IA é complexo e dinâmico. O regulamento deve reconhecer que:
Ai

O ecossistema de IA é complexo e dinâmico. O regulamento deve reconhecer que:

FranciscoBy FranciscoApril 25, 2024No Comments6 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


Na última quinta-feira, a Meta anunciou o Llama 3, a versão mais recente de seu modelo de linguagem em larga escala (LLM). O modelo mais recente apresenta o que a Meta afirma ser um conjunto de treinamento de dados de “alta qualidade” e novos recursos de programação de computador. Chris Cox, diretor de produtos da Meta, prevê que versões futuras do modelo incluirão inferência avançada orientada por “multimodalidade”. As ambições de Meta ganham as manchetes, mas o sistema é tão complexo que as previsões de Cox e dos seus colegas provavelmente serão erradas. Por exemplo, Rama 2 não conseguiu compreender o contexto básico. É importante que os reguladores reconheçam a complexidade do ecossistema de inteligência artificial e permitam que os desenvolvedores ajustem e melhorem os seus modelos ao longo do processo de implementação.

Investigadores, engenheiros, empresas, instituições académicas e agências governamentais estão a colaborar entre disciplinas e indústrias para integrar a IA numa vasta gama de sistemas sociotécnicos e económicos complexos, conforme ilustrado pelos exemplos do ChatGPT e do Gemini. O desenvolvimento destes modelos fundamentais requer a colaboração entre linguistas, cientistas da computação, engenheiros e empresas com o poder computacional e os dados necessários para construir e treinar os modelos. Este processo também exige que os financiadores desenvolvam o modelo, que cientistas de outras áreas, como sociologia e ética, e que as empresas utilizem o modelo em aplicações voltadas para o cliente, como websites.

Como resultado, os ecossistemas resultantes são incrivelmente complexos e apresentam características de sistemas complexos, tais como conhecimento incompleto, incerteza, imprevisibilidade, assincronia e não decomponibilidade. Devido ao grande número de componentes interconectados, o comportamento de todo o sistema não pode ser facilmente previsto ou controlado. A proliferação de aplicações de IA apresenta, portanto, novos desafios para a compreensão, explicação e controle de novos comportamentos em sistemas acoplados. Por exemplo, os LLMs são propensos a “alucinações” e a reportar informações falsas (pesquisas independentes mostram que isto ocorre cerca de 20% das vezes, mesmo com os sistemas mais “verdadeiros” atualmente disponíveis). Devido à complexidade do modelo, mesmo os seus criadores são incapazes de explicar por que e como cada “falsidade” específica é produzida. Portanto, é difícil criar formas sistemáticas de detectar ou prevenir tal comportamento.

A governação de sistemas complexos, como os ecossistemas de IA, requer uma perspectiva que permita aos decisores políticos considerar a vasta gama de consequências não intencionais e de comportamentos emergentes imprevisíveis, tanto dos próprios sistemas como dos seus homólogos humanos. Pode não estar claro onde reside a responsabilidade regulamentar, uma vez que as aplicações podem ser desenvolvidas e implementadas numa variedade de jurisdições e o seu impacto e impacto podem abranger uma variedade de setores. No mínimo, uma governação eficaz requer coordenação e cooperação entre múltiplas partes interessadas. Este nível de coordenação em si é complexo porque o ecossistema está em constante mudança à medida que novos sistemas são desenvolvidos, novas aplicações são implementadas e mais experiência é adquirida.

Até agora, as regulamentações da UE e dos EUA basearam-se no risco e na gestão de riscos para fornecer à sociedade a garantia de que a IA será desenvolvida e implementada de uma forma considerada “segura”.

As regras da UE baseiam-se na experiência do continente na adoção de regulamentos para garantir a segurança dos produtos e proteger os indivíduos de danos conhecidos associados a certas utilizações de IA e violações de privacidade. Os sistemas são classificados de acordo com o risco percebido que representam. A IA proibida inclui a manipulação do comportamento dos indivíduos de determinadas formas indesejáveis ​​e a utilização de determinadas tecnologias (por exemplo, dados biométricos, reconhecimento facial) em determinadas situações.

A IA de alto risco, que exige extensa documentação, auditoria e pré-certificação, está sujeita à legislação existente da UE em matéria de conformidade com a segurança dos produtos (por exemplo, interoperabilidade de brinquedos, equipamentos de proteção, veículos agrícolas, veículos florestais, aviação civil e sistemas ferroviários). o uso extensivo do acesso). As aplicações de baixo risco que são obrigadas a cumprir apenas obrigações de transparência executam tarefas processuais restritas. O foco está em melhorar o resultado da tomada de decisão humana, e a decisão final é controlada pelo tomador de decisão humano.

Embora os regulamentos do Gabinete de Gestão e Orçamento dos EUA relativos à utilização governamental da IA ​​sejam menos restritivos e prescritivos do que as regras da UE, ainda abordam alguns dos riscos da IA ​​e questões de governação e inovação diretamente relacionadas com a utilização da IA ​​pelas agências governamentais. a ênfase está no endereçamento. Especificamente, os riscos abordados “resultam da confiança nos resultados da IA ​​para informar, influenciar, determinar ou implementar decisões e ações da agência “Qualquer ação que possa prejudicar a eficácia, segurança, justiça, equidade, transparência, responsabilidade, adequação ou legalidade; de “. “

Em ambos os casos, os riscos abordados surgem quase exclusivamente em relação a produtos, atividades, decisões ou utilizações específicas da IA, e não ao ecossistema complexo em que esta opera. As circunstâncias relevantes são reduzidas a um conjunto específico de circunstâncias, ações, intervenientes e resultados que já são amplamente conhecidos e controláveis. Mesmo as utilizações proibidas na UE estão limitadas a resultados específicos que já foram amplamente identificados e descritos. Em ambos os casos, é necessário que um único indivíduo designado seja o responsável final pela IA e pelos seus relatórios e gestão regulamentares.

Nenhuma das regulamentações aborda a complexidade, incerteza, imprevisibilidade, assincronia e não degradabilidade do ecossistema em que a IA opera. Na verdade, as referências à “complexidade” e à “incerteza” são visíveis pela sua aparente falta de consideração. Nenhum dos dois parece acomodar a extensa colaboração entre as diversas partes interessadas e as múltiplas perspectivas necessárias para gerir sistemas dinâmicos complexos.

Talvez seja altura de os reguladores terem alguma humildade e reconhecerem o que estas regulamentações podem ou não realizar. Isso não garante segurança à medida que você prossegue com o desenvolvimento e implantação de IA. Eles não reconhecem o que sabemos, o que não sabemos e o que não podemos saber, porque a racionalidade dos humanos que os supervisionam é limitada. Procuram simplesmente gerir um subconjunto de riscos que já foram identificados ou previstos. À medida que ganhamos experiência com novos ecossistemas em operação, devemos esperar surpresas de novos comportamentos inesperados e descobertas de coisas que não conhecíamos ou entendíamos anteriormente.

A questão é: como lidar com tal situação? Precisamos de alguma liderança na discussão de como a nossa sociedade evolui face a uma incerteza tão inequívoca. É pouco provável que os esforços regulamentares existentes que olham para trás sejam suficientes, e é pouco provável que as alternativas a este grande e complexo esforço, que deve necessariamente olhar para o futuro rumo a um futuro inerentemente incerto, sejam suficientes.

Bronwyn Howell é pesquisadora sênior adjunta do American Enterprise Institute, onde se concentra na regulamentação, desenvolvimento e implementação de novas tecnologias.

Copyright 2024 Nexstar Media Inc. Todos os direitos reservados. Este material não pode ser publicado, transmitido, reescrito ou redistribuído.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.