Les banques communautaires sont aux prises avec des politiques visant à couvrir les risques cachés de l’IA

Les banques communautaires en tant que groupe en sont aux premiers stades de intégrer l’intelligence artificielle dans leurs opérations. Les politiques formelles écrites concernant son utilisation sont encore plus loin de se concrétiser.

Mais les deux actions peuvent et doivent se produire en même temps.

« C’est un peu choquant de voir à quel point de nombreuses institutions communautaires mettent à peine les pieds dans l’eau », a déclaré Jim Perry, stratège principal chez Market Insights, un cabinet de conseil pour les banques communautaires et les coopératives de crédit. « L’idée d’établir le type de gouvernance et de surveillance qui les aidera à naviguer dans l’IA à l’avenir arrive tout juste sur leur écran radar. »

Bien que des pratiques sûres et conformes en matière d’intelligence artificielle et d’IA générative sont une préoccupation pour les institutions financières de toutes tailles, ils sont particulièrement risqué pour les banques communautaires. Ces institutions ont tendance à s’associer avec des tiers plutôt que de développer leurs capacités en interne, ce qui signifie moins de visibilité sur les pratiques des autres parties et une porte ouverte à risque de tiers.

« Ces préoccupations ne sont ni nouvelles ni propres aux outils d’IA », a déclaré Jasper Sneff Nanni, directeur du cabinet de conseil en services financiers FS Vector. « Ils s’inscrivent généralement dans le cadre des programmes existants de protection de la vie privée, de sécurité de l’information, de gestion des risques liés aux tiers et de gestion des risques liés aux modèles. Cependant, la popularité récente de ces outils peut créer des situations dans lesquelles les employés ne réalisent pas que ces risques sont présents. »

Par exemple, les employés d’une banque peuvent utiliser un produit d’IA tiers pour transcrire l’audio d’une conférence ou résumer des documents clients sans se rendre compte que dans certains cas, des données confidentielles de l’entreprise ou des informations personnelles identifiables sur le client pourraient être divulguées au fournisseur de l’outil, a déclaré Sneff Nanni. FS Vector a rédigé des politiques à la fois pour les banques et les fintechs ces derniers mois, et Sneff Nanni a constaté que les principales préoccupations concernant les outils d’IA sont les risques liés à la confidentialité et à la sécurité des informations et l’exposition de l’entreprise à des risques de modèle.

Il conseille aux banques de se tourner vers les versions professionnelles d’outils de sociétés telles que OpenAI, Google et Anthropic, avec des politiques d’utilisation des données plus transparentes que leurs versions gratuites disponibles dans le commerce.

La question de savoir jusqu’où aller avec un produit d’IA générative destiné au consommateur s’est posée à la Merchants & Marine Bank à Pascagoula, dans le Mississippi.

L’institution, dotée d’un actif de 687 millions de dollars, « essaie toujours de tirer parti de la technologie pour surpasser notre catégorie de poids », a déclaré son directeur des opérations, Jeff Trammell. « L’IA peut être un excellent niveleur. » Lui et d’autres employés ont commencé à expérimenter ChatGPT pour le plaisir, par exemple en demandant au robot d’écrire une chanson sur le ton des Smashing Pumpkins à propos d’un responsable des risques très en colère. (« C’était une superbe chanson », a déclaré Trammell. « Ça ressemblait exactement à ce que [lead singer] Billy Corgan écrivait. ») Une fois qu’ils ont vu le potentiel de ChatGPT, ils ont réalisé une utilisation pratique : lancer une politique régissant leur programme de banque de cannabis vieux de deux ans.

« Vous pouvez acheter des politiques et des procédures prêtes à l’emploi pour SBA [Small Business Administration] « Il y a des prêts et des prêts hypothécaires traditionnels, mais pour les banques de cannabis, il n’y a rien », a déclaré Trammell. « Vous pouvez vous renseigner auprès de différentes banques, mais la plupart du temps, ces programmes sont confidentiels. L’IA peut vous aider à déterminer les angles d’une activité à haut risque comme celle-ci. »

L’équipe a pris soin de garder les informations sensibles hors de ChatGPT. Au lieu de cela, ils ont posé des questions pour lancer leurs propres discussions, telles que : « Quels sont les facteurs de risque qu’une petite banque communautaire doit prendre en compte lors du développement d’un programme de banque de cannabis ?

« Nous avons développé l’ensemble du programme en moins de 60 jours », a déclaré Trammell. « ChatGPT a joué un rôle en nous permettant d’acquérir rapidement les bases. »

À ce stade, Merchants & Marine est allé aussi loin que Trammell se sent à l’aise avec ChatGPT. Avant que lui et ses collègues explorent d’autres outils d’IA générative, Trammell affirme qu’ils élaboreront des règles sur la gouvernance et le contrôle des données, par exemple qui, dans la banque, est autorisé à utiliser ces produits et quelles requêtes ils peuvent poser sans franchir de ligne.

« La grande question est la suivante : comment pouvons-nous préserver la confiance du public dans la confidentialité de nos informations ? » dit Trammel.

Un autre défi est de savoir comment démarrer.

Julieann Thurlow, présidente et directrice générale de la Reading Cooperative Bank, dotée d’un actif de 900 millions de dollars à Reading, dans le Massachusetts, aborde l’IA avec prudence et préfère attendre davantage de directives de la part des régulateurs. Pour l’instant, l’utilisation de l’IA par Reading se limite à la détection des fraudes et au blocage des transactions dans le système de paiement peer-to-peer qu’il utilise, Chuck.

« Vous devez vous renseigner sur cet espace avant de vous y lancer », a-t-elle déclaré.

Bankwell Bank, à New Canaan, dans le Connecticut, examine l’IA sous l’angle de son cadre de gestion des risques liés aux tiers et considère tout ce qui touche à l’IA comme présentant un risque élevé. À ce stade du parcours de cette banque de 3,2 milliards de dollars vers l’IA – qui comprend un projet pilote de prêts aux petites entreprises en utilisant l’IA générative et des expériences de vente et de marketing, de préqualification, de souscription et bien plus encore dans son unité bancaire aux petites entreprises – « il est difficile d’élaborer une politique solide et complète en dehors du fait qu’il s’agit d’un partenariat à haut risque », a déclaré Ryan Hildebrand, directeur de l’innovation. « Nous sommes sur la ligne de départ en ce qui concerne les procédures et politiques d’utilisation de l’IA, mais c’est similaire à là où nous en sommes avec les cas d’utilisation des produits eux-mêmes. »

Kim Kirk, directrice des opérations de la Queensborough National Bank & Trust à Louisville, en Géorgie, a acheté un modèle de politique d’IA sur BankPolicies.com qu’elle envisage de personnaliser. Le moment était venu car la banque aux actifs de 2 milliards de dollars achète à son fournisseur principal des solutions anti-fraude qui utilisent l’apprentissage automatique, a embauché un ingénieur en apprentissage automatique pour son unité de business intelligence et souhaite s’attaquer à la manière dont les acteurs de la cybermenace utilisent l’IA.

Elle a également été aux prises avec des situations au cas par cas. Plus tôt cette année, Kirk a envisagé d’autoriser ses chefs de projet à utiliser Otter.ai pour la transcription lors de la conversion principale de la banque. Parce qu’ils peuvent contenir des informations client ou stratégiques, elle a étudié la fonctionnalité de transcription et la sécurité des archives d’Otter.ai, et n’était finalement pas à l’aise pour aller de l’avant.

Comme chez Merchants & Marine, l’utilisation prudente de ChatGPT est sur son radar.

« Nous devons régir ce que nos employés font avec ChatGPT et nous assurer qu’ils comprennent qu’il n’est pas approprié de mettre des informations bancaires dans ChatGPT ou dans d’autres modèles publics d’IA générative », a déclaré Kirk.

Concernant le risque de tiers, posé par les vendeurs d’une banque, Sneff Nanni recommande aux banques d’inclure une disposition dans leurs politiques selon laquelle tout ce qui est utilisé par un partenaire fintech est soumis aux mêmes procédures d’approbation que la banque appliquerait au outils qu’il utilisait directement.

À plus long terme, les banques devraient être prudentes quant à l’adaptation des politiques d’IA et de gestion des risques des modèles à l’IA générative, ont déclaré les experts.

« Les banques ont tendance à être plus conservatrices que beaucoup d’autres institutions avec lesquelles nous travaillons et ont les normes de validation et les exigences de transparence les plus rigoureuses autour des modèles », a déclaré Jey Kumarasamy, associé principal chez Luminos.Law, un cabinet d’avocats fondé à la fois par des data scientists et avocats qui se concentrent sur les risques liés à l’IA. « Certaines de ces exigences ne fonctionnent pas bien lorsqu’il s’agit de modèles d’IA génératifs. »

Par exemple, un cadre standard de gestion des risques de modèle contiendra trois lignes de défense : le développement d’un modèle robuste, la validation du modèle (garantissant que le modèle fonctionne comme prévu) et les audits internes. Avec l’IA générative, il est difficile de tester sous pression un modèle pour la validation du modèle en le répliquant, en raison du temps et des dépenses nécessaires pour créer un modèle d’IA générative. Au lieu de cela, la banque pourrait envisager d’autres méthodes, telles que la création d’une équipe rouge et l’évaluation du modèle par rapport à des ensembles de données de référence.

Les modèles d’IA générative comportent également des risques uniques, tels que des hallucinations et de la toxicité, ou un langage irrespectueux.

Avec toutes sortes d’IA, Perry affirme que l’espace évolue si rapidement que les banques communautaires devraient établir un cadre systémique plutôt que de s’appuyer sur les politiques de leurs principaux fournisseurs ou de fournisseurs tiers.

« Il est important que cette question atteigne un niveau de priorité afin que les banques communautaires ne restent pas à la traîne », a-t-il déclaré.

By Helen Reid

Meet Helen Reid, your guide to the dynamic realm of technology in the WordPress universe. With a wealth of blogging experience under my belt, I'm here to navigate you through the intricate landscapes of Windows, cryptocurrency mining, and all things internet-related. Join me on this digital journey as we explore, learn, and innovate together.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *