Applis de rencontres : mettre cœurs et portefeuilles à l’abri
Jamais la quête de l’âme sœur n’aura été si complexe. Il faut dire que trouver l’amour en ligne comporte son lot de défis et d’angoisses. Comment créer un profil qui se démarque et gérer l’afflux de notifications? Et comment savoir si l’on est en train de se faire jeter sans explication? Et par-dessus le marché, voilà que l’intelligence artificielle (IA) s’en mêle : on peut bien peaufiner ses messages, encore faut-il s’adresser à une vraie personne.
Entendons-nous. Les applications de rencontres comme Tinder, Bumble et Hinge se servaient déjà de l’IA, notamment pour jumeler des utilisateurs en fonction de leurs éventuels atomes crochus, les aider à choisir la « meilleure » photo de profil (Tinder) ou leur proposer des sujets de discussion (Bumble).La différence, c’est que les utilisateurs font maintenant appel à ses services de Cupidon. L’IA leur fournit des outils plutôt anodins, sources de formules pour briser la glace ou rédiger sa bio. Elle leur permet aussi – et l’on peut s’interroger sur l’aspect moral de ces pratiques – de retoucher leurs photos ou de générer des messages pendant une conversation.
« Les photos retouchées étaient déjà chose courante, mais les possibilités de l’IA sont sans commune mesure et posent des dilemmes éthiques, affirme Sinead Bovell, futurologue et experte en technologie. Certains utilisateurs vont jusqu’à créer des agents conversationnels qui s’expriment à leur place – c’est préoccupant. »
On doit cette nouvelle tendance (et bien d’autres!) à ChatGPT, dont la popularité ne cesse de croître depuis son lancement, en novembre 2022. D’abord utilisé pour produire des CV impeccables, demander une augmentation de salaire, voire pondre un travail universitaire, il sert maintenant à conquérir des cœurs. « C’est vraiment à la portée de tout le monde, désormais. »
Or, dans le monde des rencontres en ligne, la démocratisation de l’IA pourrait être lourde de conséquences.
« La cyberimposture gagne certainement du galon. L’IA permet non seulement de créer des images, mais aussi de générer de l’audio, du vidéo et du texte en reproduisant le style et la voix de quelqu’un. Distinguer le vrai du faux est devenu un véritable défi, et les signaux d’alarme se brouillent. »
Il en découle des risques patents sur le plan de la sécurité. On peut se retrouver nez à nez avec une personne qui a menti sur toute la ligne quant à son identité et tomber dans un piège qu’elle nous a tendu. Selon une étude de TechShielder, un blogue sur la cybersécurité, les cyberimposteurs ont fait plus de 1 000 victimes au pays en 2020 en leur dérobant pas moins de 9 M$ ; le Canada a alors pris le troisième rang des territoires les plus touchés par ce crime.
Autre problème : l’IA peut contribuer à la prolifération des préjugés, car les données servant à l’entraîner ne sont pas exemptes de représentations ou d’informations racistes. Ainsi, un système d’IA pourrait retoucher une photo en pâlissant la peau du visage ou en lui donnant des « traits européens », par exemple.
Bien au fait de la situation, les créateurs d’applications ont adopté des mesures pour assurer la sécurité des utilisateurs. Dès 2016, Bumble a mis en place un processus consistant à vérifier les profils à l’aide d’égoportraits. Tinder lui a emboîté le pas en 2020. Quant à Hinge, elle offre depuis 2022 à ses utilisateurs de soumettre une vidéo de présentation pour obtenir un sceau d’authentification. Au début de l’année, Match Group, le propriétaire de Tinder et de Hinge, a par ailleurs annoncé la mise en œuvre d’un programme bonifié de vérification de l’identité, qui a été testé en Australie et en Nouvelle-Zélande et lancé au Japon en 2019. Un petit crochet bleu servira à indiquer qu’un compte a été dûment validé par un tiers fournisseur, c’est-à-dire que l’utilisateur a soumis a) une photo d’un permis de conduire ou d’un passeport valide et b) une vidéo de présentation. Auparavant, Match Group avait mené une campagne de sensibilisation aux arnaques sentimentales. Les efforts de la société ont débouché sur la création, en 2018, d’un conseil de spécialistes des droits de la personne qui évalue la sécurité des produits offerts.
Soulignons cependant que le succès de telles mesures, bien qu’utiles, repose toujours sur le jugement des utilisateurs. La vérification de l’identité étant une étape facultative, c’est à eux de décider s’ils accordent leur confiance à une personne « non certifiée ». Par ailleurs, les détecteurs d’IA ne sont pas infaillibles, précise Sinead Bovell. Si certains comptes générés par l’IA sont faciles à repérer, d’autres passent sous le radar : les technologies employées (pensons à la capacité d’imiter la créativité du dialogue humain) sont plus avancées, et les résultats, plus réalistes.
« Les outils actuels ne nous permettent pas de déceler tous les cas d’utilisation de l’IA », principalement parce que celle-ci est encore très nouvelle, indique l’experte. « Les changements fondamentaux qui attendent Internet et les plateformes numériques devraient simplifier le processus d’authentification. »
D’ici là, Sinead Bovell recommande aux entreprises de demeurer à l’avant-garde des normes et protocoles en matière de sécurité dans le secteur des applications de rencontres.
« La proactivité est la véritable clé de la réussite. »