O debate atual sobre se os modelos avançados de IA abertos ou fechados são mais seguros ou melhores é uma distração. Em vez de nos concentrarmos num modelo de negócio, precisamos de adotar uma definição mais abrangente do que significa ser aberta a IA. Isto significa mudar a conversa para se concentrar na necessidade de ciência aberta, transparência e justiça ao construir uma IA que funcione para o bem público.
A ciência aberta é a base do progresso tecnológico. Precisamos de mais ideias e de uma maior variedade de ideias. Está mais amplamente disponível, não menos. A organização que lidero, Partnership on AI, é em si uma experiência de inovação aberta orientada para uma missão, que reúne o meio académico, a sociedade civil, parceiros industriais e decisores políticos para enfrentar um dos nossos problemas mais difíceis e transformar a tecnologia. O objetivo é garantir que os benefícios alcançar o maior número de pessoas possível. , não alguns.
Num modelo aberto, não podemos esquecer o papel influente a montante desempenhado pelo financiamento público da ciência e pela publicação aberta da investigação académica.
As políticas nacionais de ciência e inovação são fundamentais para os ecossistemas abertos. Em seu livro nação empreendedora, a economista Mariana Mazzucato aponta que o financiamento público para pesquisa plantou algumas das sementes para a propriedade intelectual que se transformou na empresa de tecnologia sediada nos EUA. Muitas das tecnologias de IA actuais, desde a Internet ao iPhone e aos algoritmos do Google Adwords, foram alimentadas por financiamento governamental inicial para investigação nova e aplicada.
Da mesma forma, tornar pública a investigação e avaliá-la através da revisão ética é fundamental para o progresso científico. Por exemplo, o ChatGPT não seria possível sem acesso a pesquisas publicadas por pesquisadores sobre modelos de transformadores. Conforme relatado no Stanford AI Index, embora o número de doutorados em IA que ingressam no meio académico tenha diminuído ao longo da última década, o número que ingressa na indústria aumentou, com mais do dobro. É alarmante que o mundo esteja a avançar. Em 2021.
Também é importante lembrar que aberto não significa transparente. E embora a transparência possa não ser um fim em si mesma, é essencial para a responsabilização.
A transparência exige divulgação oportuna, comunicação clara aos públicos relevantes e padrões explícitos de documentação. Como mostra a Orientação sobre a implantação de modelos de base segura da PAI, as medidas tomadas ao longo do ciclo de vida do modelo aumentam a supervisão externa e a auditabilidade, ao mesmo tempo que protegem a competitividade. Isto inclui transparência relativamente aos tipos de dados de formação, testes e avaliação, relatórios de incidentes, fontes laborais, devida diligência em direitos humanos e avaliações de impacto ambiental. O desenvolvimento de padrões de documentação e divulgação é essencial para garantir a segurança e a responsabilização da IA avançada.
Finalmente, como mostra a nossa investigação, é fácil reconhecer a necessidade de estar aberto e criar espaço para diversas perspectivas para visualizar o futuro da IA, mas alcançá-lo é difícil, é muito mais difícil. Na verdade, um ecossistema aberto tem menos barreiras à entrada e é mais inclusivo para pessoas de origens não tradicionalmente vistas em Silicon Valley. Também é verdade que um ecossistema aberto prepara o terreno para que mais intervenientes partilhem os benefícios económicos da IA, em vez de centralizar ainda mais o poder e a riqueza.
Mas temos que fazer mais do que apenas preparar o terreno.
Estamos totalmente comprometidos com o desenvolvimento e implantação de IA que funcione para comunidades desproporcionalmente afetadas por danos algorítmicos e grupos historicamente marginalizados, protegendo ao mesmo tempo seus dados e privacidade. É preciso investir para poder participar. Isto significa concentrar-se nas competências e na educação, mas também redesenhar quem desenvolve sistemas de IA e como são avaliados. As inovações de IA orientadas para os cidadãos estão atualmente a ser testadas em todo o mundo através de sandboxes e laboratórios públicos e privados.
Estar seguro não significa tomar partido entre modelos abertos e fechados. Pelo contrário, trata-se de introduzir um sistema nacional de investigação e inovação aberta que promova um campo resiliente de inovação e integridade científica. Trata-se de criar espaço para um mercado competitivo de ideias para promover a prosperidade. Trata-se de permitir que os decisores políticos e o público visualizem o desenvolvimento destas novas tecnologias e explorem melhor o seu potencial e perfil. Trata-se de reconhecer que todos podemos viajar de forma mais rápida e segura com regras de trânsito claras. Mais importante ainda, para que a IA cumpra a sua promessa, temos de encontrar formas sustentáveis, respeitosas e eficazes de ouvir vozes novas e diferentes nas conversas sobre IA.
Rebecca Finlay é CEO da Parceria em IA.
Mais comentários de leitura obrigatória publicados por sorte:
As opiniões expressas nos artigos de comentários da Fortune.com são exclusivamente do autor e não refletem necessariamente as opiniões ou crenças do autor. sorte.

