Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » PhDs em IA estão migrando para a Big Tech.É por isso que pode ser uma má notícia para a inovação aberta
Ai

PhDs em IA estão migrando para a Big Tech.É por isso que pode ser uma má notícia para a inovação aberta

FranciscoBy FranciscoMarch 28, 2024No Comments5 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


O debate atual sobre se os modelos avançados de IA abertos ou fechados são mais seguros ou melhores é uma distração. Em vez de nos concentrarmos num modelo de negócio, precisamos de adotar uma definição mais abrangente do que significa ser aberta a IA. Isto significa mudar a conversa para se concentrar na necessidade de ciência aberta, transparência e justiça ao construir uma IA que funcione para o bem público.

A ciência aberta é a base do progresso tecnológico. Precisamos de mais ideias e de uma maior variedade de ideias. Está mais amplamente disponível, não menos. A organização que lidero, Partnership on AI, é em si uma experiência de inovação aberta orientada para uma missão, que reúne o meio académico, a sociedade civil, parceiros industriais e decisores políticos para enfrentar um dos nossos problemas mais difíceis e transformar a tecnologia. O objetivo é garantir que os benefícios alcançar o maior número de pessoas possível. , não alguns.

Num modelo aberto, não podemos esquecer o papel influente a montante desempenhado pelo financiamento público da ciência e pela publicação aberta da investigação académica.

As políticas nacionais de ciência e inovação são fundamentais para os ecossistemas abertos. Em seu livro nação empreendedora, a economista Mariana Mazzucato aponta que o financiamento público para pesquisa plantou algumas das sementes para a propriedade intelectual que se transformou na empresa de tecnologia sediada nos EUA. Muitas das tecnologias de IA actuais, desde a Internet ao iPhone e aos algoritmos do Google Adwords, foram alimentadas por financiamento governamental inicial para investigação nova e aplicada.

Da mesma forma, tornar pública a investigação e avaliá-la através da revisão ética é fundamental para o progresso científico. Por exemplo, o ChatGPT não seria possível sem acesso a pesquisas publicadas por pesquisadores sobre modelos de transformadores. Conforme relatado no Stanford AI Index, embora o número de doutorados em IA que ingressam no meio académico tenha diminuído ao longo da última década, o número que ingressa na indústria aumentou, com mais do dobro. É alarmante que o mundo esteja a avançar. Em 2021.

Também é importante lembrar que aberto não significa transparente. E embora a transparência possa não ser um fim em si mesma, é essencial para a responsabilização.

A transparência exige divulgação oportuna, comunicação clara aos públicos relevantes e padrões explícitos de documentação. Como mostra a Orientação sobre a implantação de modelos de base segura da PAI, as medidas tomadas ao longo do ciclo de vida do modelo aumentam a supervisão externa e a auditabilidade, ao mesmo tempo que protegem a competitividade. Isto inclui transparência relativamente aos tipos de dados de formação, testes e avaliação, relatórios de incidentes, fontes laborais, devida diligência em direitos humanos e avaliações de impacto ambiental. O desenvolvimento de padrões de documentação e divulgação é essencial para garantir a segurança e a responsabilização da IA ​​avançada.

Finalmente, como mostra a nossa investigação, é fácil reconhecer a necessidade de estar aberto e criar espaço para diversas perspectivas para visualizar o futuro da IA, mas alcançá-lo é difícil, é muito mais difícil. Na verdade, um ecossistema aberto tem menos barreiras à entrada e é mais inclusivo para pessoas de origens não tradicionalmente vistas em Silicon Valley. Também é verdade que um ecossistema aberto prepara o terreno para que mais intervenientes partilhem os benefícios económicos da IA, em vez de centralizar ainda mais o poder e a riqueza.

Mas temos que fazer mais do que apenas preparar o terreno.

Estamos totalmente comprometidos com o desenvolvimento e implantação de IA que funcione para comunidades desproporcionalmente afetadas por danos algorítmicos e grupos historicamente marginalizados, protegendo ao mesmo tempo seus dados e privacidade. É preciso investir para poder participar. Isto significa concentrar-se nas competências e na educação, mas também redesenhar quem desenvolve sistemas de IA e como são avaliados. As inovações de IA orientadas para os cidadãos estão atualmente a ser testadas em todo o mundo através de sandboxes e laboratórios públicos e privados.

Estar seguro não significa tomar partido entre modelos abertos e fechados. Pelo contrário, trata-se de introduzir um sistema nacional de investigação e inovação aberta que promova um campo resiliente de inovação e integridade científica. Trata-se de criar espaço para um mercado competitivo de ideias para promover a prosperidade. Trata-se de permitir que os decisores políticos e o público visualizem o desenvolvimento destas novas tecnologias e explorem melhor o seu potencial e perfil. Trata-se de reconhecer que todos podemos viajar de forma mais rápida e segura com regras de trânsito claras. Mais importante ainda, para que a IA cumpra a sua promessa, temos de encontrar formas sustentáveis, respeitosas e eficazes de ouvir vozes novas e diferentes nas conversas sobre IA.

Rebecca Finlay é CEO da Parceria em IA.

Mais comentários de leitura obrigatória publicados por sorte:

As opiniões expressas nos artigos de comentários da Fortune.com são exclusivamente do autor e não refletem necessariamente as opiniões ou crenças do autor. sorte.

Assine o novo boletim informativo Fortune CEO Weekly Europe para obter informações sobre os escritórios centrais sobre as maiores histórias de negócios da Europa. Você pode se inscrever gratuitamente.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.