A promessa da IA agente no Centro de Operações de Segurança (SOC) é óbvia.
Investigações mais rápidas, sistemas autônomos e capacidade de acompanhar ameaças que não chegam mais bem embaladas.
O artigo continua abaixo
CTO de campo e consultor estratégico na Splunk.
A ideia de ferramentas de IA para tomada de decisões pode ser abstrata, mas a mudança que representa não o é. A mudança da automação para agentes de IA muda a forma como o trabalho é feito, como a responsabilidade é compartilhada e quanto controle os líderes estão dispostos a entregar.
A indústria de segurança já esteve aqui antes. Há apenas alguns anos, muitas equipes SOC ainda desconfiavam de software de automação. As preocupações com a visibilidade e a responsabilidade retardaram a adoção, embora os benefícios fossem claros.
Os grandes modelos de linguagem mudaram essa dinâmica, mostrando o quão adaptável a IA poderia ser, mas também introduziram um novo tipo de incerteza. Ao contrário dos fluxos de trabalho guiados, esses sistemas interpretam o contexto e fazem julgamentos ao longo do caminho.
A Agentic AI vai um passo além, trabalhando a longo prazo e adaptando a pesquisa à medida que ela se desenvolve. Esta mudança cria uma oportunidade real, mas também obriga os líderes de segurança a repensar o que significa a confiança quando as decisões não são inteiramente tomadas pelas pessoas.
Quando a automação dá lugar ao julgamento
Nos ambientes SOC tradicionais, as decisões seguiam um caminho definido. A automação conquistou seu lugar ao manter os SOCs dentro de limites claros, gerenciando tarefas específicas e comportando-se conforme as equipes imaginavam.
Quando algo dava errado, o motivo geralmente era claro: uma regra foi criada incorretamente, uma configuração precisava ser ajustada ou faltava uma fonte de dados.
O agente de IA altera esta estrutura de decisão. Esses sistemas funcionam com informações incompletas e contextos mutáveis. Eles podem realizar pesquisas durante longos períodos de tempo, coletar sinais e decidir no que vale a pena prestar atenção. Esta flexibilidade é o que os torna úteis, mas também muda a forma como as pessoas se relacionam com a tecnologia.
Para as autoridades de segurança, isto é mais do que apenas uma atualização técnica. Isso muda a natureza da decisão que eles são solicitados a tomar.
Adotar a IA de agência significa delegar julgamento, o que requer um tipo diferente de confiança na forma como as decisões são tomadas. Esta distinção é subtil na forma como os sistemas são governados e como os líderes se sentem confortáveis em confiar neles.
Aquele que atende quando a IA faz uma ligação
Nas discussões de liderança sobre a IA do agente, o tom muitas vezes muda. Nas operações de segurança, os incidentes podem envolver múltiplas equipes e processos, mas a responsabilidade, em última análise, cabe aos líderes designados. Isso não muda quando os sistemas de IA são introduzidos.
Quando os sistemas operam de forma independente, a responsabilidade não desaparece juntamente com o envolvimento humano. Uma IA não explica seu raciocínio a um conselho ou regulador, dando-lhe tranquilidade. Essas conversas ainda são com a organização e, na maioria dos casos, com o CISO.
É esta realidade que está a remodelar as conversas de liderança em torno da IA de agência. A excitação inicial dá lugar a uma linha de questionamento mais cautelosa. O foco muda do que a tecnologia pode fazer e se volta para o que acontece quando algo dá errado.
Isto torna mais difícil tratar a autonomia como uma decisão puramente técnica. Os líderes devem ser claros sobre quem é o proprietário destes sistemas, quanta autoridade lhes é atribuída e onde se espera que o julgamento humano intervenha. Esses limites são mais eficazes quando são definidos deliberadamente.
A clareza aqui muda a sensação de autonomia. Quando a responsabilização é compreendida, os líderes estão em melhor posição para confiar nos sistemas que agem em seu nome.
O que ajuda os líderes a confiar naquilo que não conseguem ver?
Quando os sistemas operam além da supervisão humana imediata, a visibilidade torna-se crítica. Decisões que parecem fora de contexto podem deixar as equipes inseguras, mesmo que o resultado pareça razoável.
Os profissionais de segurança estão acostumados a trabalhar com sistemas complexos, mas a complexidade por si só não é o problema. É importante poder ver como as conclusões são alcançadas.
É aqui que a observabilidade começa a desempenhar um papel prático. Para dar aos analistas e líderes algo em que se ancorar, precisamos de sistemas que possam mostrar o progresso, trazer à luz descobertas provisórias e deixar caminhos para investigação.
Quando o trabalho é distribuído por horas ou dias, a visibilidade reduz a sensação de risco. As ações parecem menos opacas quando podem ser rastreadas à medida que acontecem.
A capacidade de interromper ou redirecionar o sistema no meio da tarefa também altera a forma como a autonomia é vivenciada. Saber que um ser humano pode entrar faz com que o descuido pareça intencional, em vez de reativo. As interfaces estão começando a refletir esta mudança, com a IA sendo capaz de descobrir as razões por trás da pesquisa, em vez de fornecer uma resposta única no final.
Onde o julgamento humano ainda é mais importante
Em qualquer SOC, a experiência humana é a mais influente na tomada de decisões. À medida que o agente de IA assume um trabalho mais repetitivo e operacional no SOC, o tempo gasto na coleta de contexto básico ou no trabalho em filas de alertas começa a diminuir.
O que substitui isso é um trabalho mais baseado em julgamento, como revisão de decisões e ajustes de fluxos de trabalho.
Essa mudança pode ser desconfortável, especialmente para equipes que construíram experiência e conhecimento por meio da repetição. Ao mesmo tempo, cria novas oportunidades. Os analistas juniores estão sujeitos a um pensamento de nível superior mais cedo, e os analistas seniores passam menos tempo combatendo incêndios e mais tempo melhorando a qualidade das decisões em todo o SOC.
O resultado é uma redistribuição do julgamento, em vez de uma redução no envolvimento humano. O que muda não é a necessidade das pessoas, mas sim o tipo de carga de trabalho e onde elas têm maior impacto. Contexto, direção e supervisão tornam-se críticos à medida que os sistemas assumem mais execução.
Como é a confiança em um SOC habilitado para IA
A Agentic AI já está influenciando a forma como as operações de segurança funcionam. Para os líderes, o desafio passou da competência para a confiança. A questão agora é se é possível confiar nestes sistemas para agir de acordo com a forma como a organização espera gerir os riscos.
A confiança cresce através da familiaridade. Ver como os sistemas se comportam ao longo do tempo, compreender como as decisões são tomadas e saber onde está a responsabilidade desempenha um papel importante. A confiança aumenta quando os líderes conseguem acompanhar o que está acontecendo e ter acesso a especialistas quando necessário.
É pouco provável que o SOC seja totalmente autónomo. As pessoas e os sistemas continuarão a trabalhar em estreita colaboração, mantendo os humanos a responsabilidade e a supervisão. O papel dos líderes de segurança é criar as condições sob as quais esta colaboração funcionará de forma harmoniosa e previsível.
A medida em que eles criam essa cultura colaborativa moldará o quão confortável o agente de IA se sentirá e quanto valor ele, em última análise, agregará.
Apresentamos o melhor construtor de sites de IA.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes da indústria de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não necessariamente da TechRadarPro ou Future plc. Caso tenha interesse em participar, mais informações aqui:











