Cerca de 75% das instituições financeiras já utilizam inteligência artificial (IA), mas o setor continua a enfrentar dificuldades na sua governação, criando um desfasamento entre adoção tecnológica e mecanismos de supervisão.
A conclusão é de um estudo internacional coordenado pela Zango AI, que analisa o estado da governação e compliance da IA nos serviços financeiros.
De acordo com o relatório, a implementação de sistemas de IA está a avançar mais rapidamente do que a definição de práticas operacionais capazes de garantir controlo, auditabilidade e escalabilidade. A tecnologia já está integrada em funções críticas como gestão de risco, compliance e tomada de decisão, mas os modelos de governação existentes revelam limitações face a sistemas mais adaptativos e autónomos.
A investigação baseou-se em entrevistas a 27 executivos e líderes seniores das áreas de risco, conformidade e governação da IA, bem como em mesas redondas com mais de 60 profissionais do setor financeiro europeu e do Reino Unido.
Apesar da existência de enquadramentos regulatórios como o EU AI Act, o estudo identifica a ausência de uma camada intermédia que traduza princípios regulatórios em práticas concretas. Em paralelo, muitas instituições têm recorrido à adaptação de frameworks já existentes, como model risk ou governação de produto, sem um referencial comum que defina critérios mínimos.
O relatório aponta ainda um défice de competências nas funções de supervisão, nomeadamente em risco e compliance, o que limita a capacidade de acompanhar a evolução tecnológica. Esta lacuna contribui para um aumento da exposição a riscos, num contexto em que as organizações criminosas também recorrem à IA. Em 2025, as perdas globais com fraude atingiram 579 mil milhões de dólares, com 90% dos profissionais do setor a reportarem um aumento de ataques baseados nesta tecnologia.
Archit Chamaria, Chief Data and Analytics Officer do NovoBanco, refere que “se não recorrermos à IA para combater ameaças que são, elas próprias, baseadas em IA, as ferramentas tradicionais deixarão de ser suficientes”, acrescentando a necessidade de desenvolver normas comuns no setor para responder a estes riscos.
O estudo alerta que a ausência de governação eficaz pode constituir um risco sistémico, dada a capacidade da IA para escalar decisões automatizadas e amplificar falhas de controlo. Ritesh Singhania, CEO da Zango AI, considera que o setor enfrenta um “défice de governação”, defendendo a criação de um “manual prático, liderado pelo setor”, que assegure a segurança sem comprometer a inovação.
 Também Lord Tim Clement-Jones, membro da Câmara dos Lordes, sublinha a necessidade de antecipação, afirmando que o setor pode optar por desenvolver um modelo de IA “transparente, ética e altamente eficaz” ou avançar apenas após uma crise evitável.
Neste contexto, o relatório defende o desenvolvimento de normas comuns de governação da IA, numa abordagem colaborativa entre setor e reguladores.

iStock
