A tecnologia de voz da OpenAI foi selecionada para a competição Drone Swarm do Pentágono

A OpenAI fez parceria com duas empresas de tecnologia de defesa que o Pentágono escolheu para competir no desenvolvimento de software de drones controlados por voz para os militares, de acordo com várias pessoas familiarizadas com o assunto.

Segundo as duas pessoas, a tecnologia OpenAI será usada apenas para traduzir comandos de voz dos comandantes do campo de batalha em instruções digitais para drones. Não será usado para operações de drones, integração de armas ou autoridade de seleção de alvos, disseram as duas pessoas. Todos foram convidados a permanecer anônimos para discutir questões delicadas que não são públicas.

O esforço faz parte de um desafio de 100 milhões de dólares concedido pelo Pentágono em Janeiro para entregar um protótipo de tecnologia que possa comandar drones capazes de tomar decisões e executar missões sem intervenção humana. A competição de seis meses progredirá em fases, dependendo do sucesso e do interesse dos participantes, disseram as pessoas.

Segundo algumas pessoas, o logotipo da OpenAI aparece em pelo menos dois concursos bem-sucedidos. O envolvimento da OpenAI não foi relatado anteriormente e as empresas selecionadas não foram nomeadas publicamente.

O Comando de Operações Especiais, que administra o Grupo de Guerra Autônomo de Defesa, ou DAWG, não quis comentar. A Unidade de Inovação em Defesa não respondeu a um pedido de comentário. DAWG e DIU lançaram em conjunto um desafio de recompensa para a tecnologia de enxame de drones.

A empresa ainda não decidiu quanto vai continuar nem fez acordos com empresas de tecnologia de defesa, segundo algumas pessoas. Será disponibilizada apenas a versão open source do módulo OpenAI em vez dos módulos mais avançados da empresa, segundo uma das pessoas, que acrescentou que a empresa também poderá fornecer suporte de instalação.

Segundo o porta-voz, a OpenAI não apresentou a sua candidatura ao prémio e o seu envolvimento no desafio será apenas superficial. Dois dos parceiros existentes da OpenAI optaram por incluir o modelo de código aberto da empresa em suas propostas, acrescentou o porta-voz. Se um dos parceiros for selecionado, a OpenAI garantirá que a utilização destas ferramentas está em conformidade com as nossas políticas de utilização.

Segundo o porta-voz, outras empresas de IA submeteram diretamente as suas propostas para participar na competição Drone Swarm.

Uma das propostas bem-sucedidas envolvendo a OpenAI foi a Applied Intuition Inc. Ela foi liderada pela OpenAI, uma empresa de defesa e parceira estratégica, e compartilha duas outras empresas: Sierra Nevada Corp.

A Applied Intuition fornecerá a interface do enxame e alguns comandos digitais, a Sierra Nevada Corp. fornecerá integração e a Noda AI, apoiada por capital de risco, fornecerá um software chamado “orquestração” que controla o drone, de acordo com o documento.

A OpenAI fornecerá comando e controle para “controle de missão”, de acordo com um gráfico do documento, que mostra o software OpenAI em uma seção chamada “Orquestrador” entre o operador humano e a máquina.

Applied Incentives, SNC e Noda AI não responderam imediatamente aos pedidos de comentários.

O envolvimento da empresa no desafio dos veículos aéreos não tripulados mostra que o seu trabalho de defesa visa melhorar o atual equipamento militar.

Esta semana, o Pentágono anunciou uma parceria com a OpenAI que disponibilizará o ChatGPT para 3 milhões de funcionários do Departamento de Defesa. O CEO Sam Altman minimizou no ano passado a possibilidade de ajudar o Pentágono a desenvolver uma plataforma de armas habilitada para IA.

“Não creio que a maior parte do mundo queira que a IA tome decisões sobre armas”, disse ele em abril, numa conferência dedicada aos conflitos modernos, acrescentando que não esperava que a empresa o fizesse “num futuro próximo”.

No entanto, Altman ainda deixou a possibilidade em aberto. “Eu nunca diria nunca, porque o mundo pode ser muito estranho”, disse ele.

Embora já seja possível pilotar vários drones ao mesmo tempo, o desenvolvimento de software para guiar vários drones no mar e no ar como uma única unidade – capaz de se mover de forma independente na perseguição de um alvo – continua a ser um desafio.

Os selecionados para a competição do Pentágono devem demonstrar que a sua tecnologia pode traduzir em ação os comandos de voz do comandante do campo de batalha, permitindo que os drones realizem missões em massa durante as operações de combate.

A declaração citou um oficial de defesa dizendo que o esforço seria para fins ofensivos, dizendo que a interação homem-máquina “afeta diretamente a letalidade e a eficácia desses sistemas”.

Os comandos podem incluir instruções como “mover todas as cápsulas de USV 5 quilómetros para leste”, referindo-se a navios de superfície não tripulados, de acordo com um exemplo fornecido pelo Pentágono.

A perspectiva de integração de chatbots e comandos de voz para texto em plataformas de armas preocupou até alguns responsáveis ​​da defesa, apesar da ânsia do Pentágono em acelerar a IA e a autonomia, segundo muitas pessoas. Eles disseram que seria importante limitar a IA artificial à tradução e não permitir que ela controlasse o comportamento do drone.

Muitas pessoas familiarizadas com o assunto expressaram preocupação com os riscos se a IA artificial for usada para traduzir voz em decisões operacionais sem um humano no circuito.

A mudança ocorre no momento em que funcionários de grandes laboratórios abandonam o setor após levantarem várias outras preocupações éticas sobre a indústria de IA, ao mesmo tempo em que as principais empresas fabricantes de IA pressionam por receitas para apoiar a pesquisa e o desenvolvimento contínuos. Estes incluem uma pesquisadora da OpenAI que disse estar preocupada com a publicidade no ChatGPT, e uma pesquisadora da Anthropic que renunciou publicamente, levantando preocupações mais amplas sobre o desenvolvimento da IA.

Os principais modelos de linguagem, que sustentam chatbots como o ChatGPT da OpenAI, sofrem de preconceitos e das chamadas alucinações – o que significa que podem produzir resultados que não são reais, mas nos quais a IA pode confiar.

A nova Estratégia de Aceleração de IA do Pentágono, lançada em Janeiro, procura “desbloquear” agentes de IA para o campo de batalha, desde o planeamento de campanhas militares até à selecção de alvos, incluindo ataques potencialmente letais.

Os contratos de defesa têm sido historicamente controversos dentro das empresas de tecnologia de consumo, incluindo protestos significativos no Google em 2018 sobre um esforço do Pentágono chamado Project Maven, que pretende usar IA para analisar imagens de drones.

Recentemente, a indústria de IA tem mostrado mais abertura a tais negócios. A OpenAI revisou sua política de trabalho na segurança nacional em 2024 e mais tarde anunciou um acordo estratégico com a empresa de tecnologia de defesa Anduril Industries Inc para trabalhar na tecnologia anti-drone. Na época, um porta-voz da OpenAI disse que a parceria da empresa com a Andorel era especificamente para usar sua tecnologia na capacidade defensiva contra drones.

A descrição do Pentágono desta competição de drones controlados por voz aponta para várias fases da competição nas quais as empresas só entrarão se passarem nos testes preliminares.

A primeira fase focará apenas no desenvolvimento de software, antes e depois da utilização de plataformas live. De acordo com a descrição do trabalho do Pentágono, o software destina-se a coordenar movimentos de drones em vários domínios, como aéreo e marítimo. Os últimos passos exigem a criação de “consciência e partilha de propósito” e, em última análise, “do início ao fim”.

Manson escreve para Bloomberg.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui