À medida que os decisores políticos correm para regulamentar a IA, uma forma mais íntima de inteligência artificial está a emergir silenciosa mas profundamente. A próxima revolução na tecnologia não virá como um aplicativo ou algoritmo. Ele virá até nós, nos olhará nos olhos e perguntará como pode ajudar.
Diretor Geral do Instituto de Inovação Tecnológica.
A Goldman Sachs prevê que as vendas ao consumidor ultrapassarão um milhão de unidades até 2035, um sinal de que este futuro não é especulativo, mas que se aproxima rapidamente. À medida que as suas formas se tornam conhecidas, a sua presença irá testar um dos instintos mais antigos da humanidade: o desejo de privacidade.
Uma nova era de confiança
Até agora, a nossa existência digital tem sido espalhada através de ecrãs e sensores que poderíamos desligar. Um telefone cabe no bolso; Um alto-falante inteligente fica silenciosamente em uma prateleira. Mas um humanóide é diferente. Ele está constantemente observando, aprendendo, raciocinando e agindo.
Ele pode ler tom, atitude e emoção para capturar dados além do que um microfone ou câmera poderia registrar. Na era dos humanóides, privacidade não significa apenas proteger o que dizemos. Isso significa definir quais máquinas podem saber quem somos.
Esta mudança requer um novo tipo de confiança. Durante décadas, as empresas de tecnologia procuraram o nosso “consentimento” através de formulários longos e cláusulas ocultas. No entanto, uma caixa de seleção não pode capturar a complexidade da interação com um robô adaptativo e de aprendizagem.
Quando um humanóide ajuda um paciente idoso a ficar de pé, ele deve analisar a postura, prever o equilíbrio e detectar hesitações. Cada gesto cria dados íntimos. Mas quem é o dono desses momentos fugazes; o paciente, o hospital ou o criador do robô? E como podemos garantir que estes dados servem a dignidade humana e não a conveniência?
Tecnologias de proteção de privacidade
As leis de privacidade existentes foram criadas para arquivos, não para rostos, para armazenamento estático e não para interação dinâmica. Com os humanóides, a privacidade torna-se fluida, negociada em tempo real através do movimento, da proximidade e do contexto.
Os decisores políticos precisarão de quadros regulamentares adaptativos que evoluam tão rapidamente como estes sistemas, incorporando avaliações de risco contínuas e princípios de concepção ética desde o início. Isto é privacidade por arquitetura, discrição de engenharia para que não seja opcional, mas automática.
No centro desta arquitetura estão a criptografia e os protocolos criptográficos, a ciência de impor a privacidade desde o design.
Eles permitem que os humanóides aprendam e respondam às necessidades humanas sem revelar os dados subjacentes. Em vez de confiar que as informações confidenciais não serão mal utilizadas, as técnicas criptográficas garantem que elas não possam ser acessadas. Esta é a diferença entre promessas políticas e garantias matemáticas.
Num mundo constantemente observado, interpretado e influenciado por humanóides, tais garantias são essenciais. As tecnologias de criptografia e de preservação da privacidade podem transformar intenções éticas em proteções operacionais, ancorando a confiança no próprio código.
A moderna engenharia de privacidade já fornece ferramentas para esta abordagem. Técnicas como aprendizagem federada, criptografia homomórfica e computação multipartidária segura permitem que os sistemas de IA aprendam com dados locais sem revelá-los.
Um ser humano pode, portanto, melhorar o seu suporte ao longo do tempo, mantendo informações confidenciais dentro do seu domínio criptografado. A privacidade, neste sentido, não é apenas um valor social, é uma disciplina científica que avança paralelamente à robótica.
Contudo, o código por trás dos humanóides deve refletir mais do que uma função técnica, deve incluir normas sociais. Em muitas culturas, sinais como postura, olhar e proximidade indicam respeito ou intrusão.
Os robôs que circulam entre nós têm de se adaptar não só à nossa privacidade, mas também aos nossos hábitos, limites e conforto emocional. A confiança dependerá não apenas do que as máquinas podem fazer, mas de quão elegante e respeitosamente elas o fazem.
Se incorporarmos a privacidade e a dignidade no coração dos sistemas humanóides, através de código e comportamento, estas máquinas podem ajudar-nos a recuperar o controlo dos dados que hoje fluem sem controlo através das plataformas digitais.
O cuidado humanóide pode permitir que indivíduos mais velhos vivam de forma independente, sem supervisão humana constante. Um tutor humanóide pode manter os dados de aprendizagem de uma criança mais seguros do que uma plataforma baseada em nuvem se os processar localmente. O objetivo não é descartar estas tecnologias, mas direcioná-las para objetivos humanos, transparentes e éticos.
Respeito, discrição e cuidado
Como cientista e investigador, vejo a robótica como um espelho, refletindo não apenas a nossa ambição de engenharia, mas também a nossa imaginação ética. No Instituto de Inovação Tecnológica estamos construindo uma inteligência artificial física que deve se conectar com o mundo em toda a sua complexidade.
Isto significa projetar não apenas para a função, mas com respeito, discrição e cuidado. À medida que ensinamos as máquinas a perceber-nos, estamos – esperançosamente – a redefinir o que significa ser verdadeiramente visto.
O papel dos decisores políticos, dos cientistas e dos cidadãos é passar da reacção à antecipação, escrever as regras para a coexistência antes que as máquinas cheguem à nossa porta. A privacidade, que já foi uma preocupação pessoal, deve agora tornar-se um princípio de design partilhado.
Os humanóides estão chegando a um momento decisivo para a sociedade. O seu surgimento testará a nossa capacidade de governar a tecnologia com visão, ética e compaixão.
Se tivermos sucesso, construiremos um futuro onde a inteligência artificial física apoia, em vez de sacrificar, o potencial humano; provando que inovação e integridade podem coexistir através do design.
Apresentamos o melhor software de automação.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes da indústria de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não necessariamente da TechRadarPro ou Future plc. Caso tenha interesse em participar, mais informações aqui:








