Bien qu'avec un surcroît de prudence caractéristique de leur gènes, les acteurs de l'assurance sont autant attirés pas les opportunités de l'intelligence artificielle que d'autres organisations. En revanche, selon un article du Financial Times, relayé, entre autres, par TechCrunch, ils semblent extrêmement frileux à l'idée d'en couvrir les risques.
Quelques-uns des grands noms de l'industrie, aux États-Unis, auraient ainsi sollicité préemptivement leur régulateur afin d'obtenir l'autorisation formelle d'exclure globalement de leurs polices destinées aux entreprises les conséquences du recours à l'IA. Quand bien même un représentant d'AIG affirme ne pas envisager spécifiquement d'appliquer ce genre de clauses (aujourd'hui), on perçoit clairement dans l'initiative la nervosité que suscitent ces technologies aux ramifications considérables.
D'une certaine manière, la réaction est compréhensible. Comme l'explique un autre responsable interrogé par les journalistes, le comportement absolument opaque (de « boîte noire ») des outils rend difficile toute possibilité d'évaluer les dangers auxquels ils exposent les assurés. Ajoutons à cette sensation d'inconnu, d'absence de maîtrise, la jeunesse de la discipline (après tout ChatGPT a à peine 3 ans), induisant un manque de données historiques, et la difficulté à mesurer le niveau de risque devient évidente.
Au contraire, les histoires de dérives et autres erreurs commises par les agents intelligents se répandent rapidement à travers le monde, à l'instar de la mésaventure de la promotion inventée par celui d'Air Canada, et les coûts des réparations commencent à faire peur. Les craintes sont d'autant plus fondées que les impacts peuvent affecter toutes sortes de domaines, de la simple garantie financière à la responsabilité civile, en passant par les préjudices d'image ou les litiges juridiques, par exemple.
Mais ce qui inquiète peut-être le plus les compagnies est la portée potentielle de leur engagement. En effet, le caractère systémique des anomalies introduites par l'IA en change l'échelle. Il n'est plus seulement question de dédommager un accident industriel exceptionnel mais, le cas échéant, de prendre en charge les milliers, voire millions, d'incidents relativement mineurs créés par un système critique défaillant, dont le « raisonnement » est plus ou moins incontrôlable et donc difficile à rectifier.
Et le problème pourrait encore s'aggraver… si les victimes se mettent elles aussi à exploiter l'intelligence artificielle pour industrialiser leurs dépôts de réclamations (et même, éventuellement, la création de litiges, quand une faille est repérée). Pour les assureurs, l'enjeu consisterait donc à quantifier non seulement les aléas des modèles mis en œuvre dans les entreprises – ce que devraient faciliter les exigences légales d'explicabilité – mais également l'étendue des dommages qu'ils sont susceptibles de causer, en termes de cibles comme de coûts unitaires… La tâche est colossale.



















