Silvio Savarese, Executive Vice President and Chief Scientist, Salesforce AI Research em 2025-5-14
Já todos falamos de Inteligência Artificial (IA), principalmente naquela que é utilizada por todos nós, no dia a dia. Na teoria, grande parte do debate gira em torno de uma promessa que está longe da realidade, e que é trazida por esta inteligência artificial geral (AGI)
Silvio Savarese, Executive Vice President and Chief Scientist, Salesforce AI Research
No entanto, muitos dos seus princípios mais transformadores — como o raciocínio, a adaptabilidade e a autonomia — já estão a ganhar forma no contexto empresarial atual e, embora a AGI evoque imagens de máquinas superinteligentes a ultrapassarem a inteligência humana, as empresas não estão à espera desse futuro longínquo e incerto, embora já estejam a aplicar conceitos fundamentais para resolverem desafios reais, e em larga escala. Chamo a esta realidade de “inovações discretas” — não por serem insignificantes, mas por serem discretamente eficazes, escaláveis de forma fiável e construídas para perdurar. São tão integradas que, por vezes, passam despercebidas. Estas inovações estão a abrir caminho a uma nova categoria que chamo de Enterprise General Intelligence (EGI) — uma IA concebida não para ficção científica, mas para a complexidade quotidiana das empresas modernas. Podemos definir a EGI como agentes de IA desenvolvidos especificamente para o contexto empresarial, otimizados não apenas para a capacidade, mas também para a consistência. A EGI interpreta o contexto, compreende relações entre dados, alinha-se com os objetivos operacionais e executa fluxos de trabalho autonomamente, sem intervenção humana. Esta IA tem acesso em tempo real ao conhecimento do negócio, permitindo aos agentes compreenderem relações subtis, raciocinarem sobre fluxos de trabalho complexos e agirem de forma informada entre sistemas. Mas capacidade não basta. A consistência é o que gera confiança. Para estar pronta para o contexto empresarial, a IA tem de operar de forma fiável em cenários complexos e integrar-se sem falhas com os sistemas existentes. É por isso que os testes rigorosos são essenciais. Ao submeter o comportamento dos agentes a ambientes de negócio realistas, é possível identificar exceções, melhorar o desempenho e garantir a fiabilidade antes da implementação. A confiança constrói-se com consistência, não com suposiçõesA importância do detalhe pode parecer excessiva — até se considerarmos o que está em jogo. Uma sugestão de restaurante medíocre ou um dado desatualizado num trabalho escolar podem ser aceitáveis num contexto de IA para consumidores. Mas no mundo empresarial, um erro de um agente de IA pode levar à perda de receitas, falhas operacionais ou deterioração da relação com o cliente — consequências potencialmente catastróficas. Apesar de muitos Large Language Models (LLMs) continuarem a bater recordes em testes de desempenho cada vez mais complexos, ainda enfrentam dificuldades em tarefas simples que os humanos realizam com facilidade. A esta lacuna chamamos "inteligência irregular" — pequenas inconsistências na capacidade do agente de executar tarefas básicas. Esta inconsistência mina a confiança e evidencia o desfasamento entre inteligência bruta e resultados fiáveis para as empresas. Mais uma vez, por isso, os testes rigorosos não são opcionais num mundo com EGI. Nenhuma companhia aérea lançaria um avião sem o testar em condições extremas. Da mesma forma, nenhuma empresa pode arriscar lançar agentes de IA sem antes os avaliar sob a complexidade do mundo real. Antes de serem lançados, os agentes devem ser testados em ambientes simulados que espelhem as nuances das operações empresariais. Estes espaços controlados forçam os agentes até aos seus limites e expõem falhas antes que estas possam afetar o negócio. É neste espírito que surgem ambientes de simulação desenvolvidos para testar o comportamento de agentes em cenários realistas de CRM. O objetivo? Avaliar se os modelos atuais estão realmente prontos para uso empresarial. Os primeiros resultados indicam que não estão. Mesmo com prompts orientados, os melhores agentes conseguem realizar corretamente menos de 65% das tarefas de function-calling nestes casos de uso. A mensagem é clara: potência não é sinónimo de fiabilidade. Estas conclusões sublinham a necessidade de capacidades mais avançadas — para além dos LLMs — que sejam desenhadas especificamente para as empresas. Destacam também o papel crucial dos ambientes simulados na afinação e validação dos agentes de IA antes destes interagirem com clientes reais ou influenciarem decisões críticas. Para líderes de empresas ou de departamentos que pretendem liderar com agentes de confiança e em grande escala, é mais importante do que nunca compreender os instrumentos de avaliação e testes que garantem a fiabilidade empresarial. À medida que as empresas avançam rumo à EGI, cresce a necessidade de sistemas que entreguem desempenho consistente e se adaptem a ambientes dinâmicos. Ao adotarem estruturas avançadas e ambientes de teste inovadores, as empresas podem escalar as suas operações de IA com confiança — impulsionando a inovação, melhorando a tomada de decisões e protegendo a confiança dos clientes. |