Linkedin n'assume pas la responsabilité du contenu généré à l'aide de son IA
Linkedin met à jour ses conditions d'utilisation, stipulant que les utilisateurs doivent vérifier la fiabilité des contenus générés par les outils IA de la plateforme avant de les publier. Le réseau social décline toute responsabilité en cas d'informations erronées.
Linkedin se dédouane de toute responsabilité concernant les outils d’IA générative proposés sur sa plateforme. Le réseau social pour professionnels a publié ses nouvelles conditions d'utilisation, qui prendront effet le 20 novembre prochain.
«Le contenu généré peut être inexact, partiel, différé, prêtant à confusion ou inapproprié pour vos objectifs. Veuillez vérifier et modifier ce contenu avant de le partager avec d'autres personnes. Comme tout le contenu que vous partagez sur nos Services, il vous incombe de vérifier qu'il respecte nos Politiques de la communauté professionnelle, y compris en vous abstenant de partager des informations prêtant à confusion», lit-on au sujet des fonctionnalités de génération de contenu de Linkedin.
En clair, les utilisateurs sont tenus de vérifier et de corriger les informations erronées avant de les partager, car le réseau social ne sera pas tenu responsable des conséquences, résume The Register, qui a repéré ces nouvelles conditions d'utilisation. Contacté par le média spécialisé, un porte-parole n'a ni infirmé ni confirmé cette interprétation.
Outils d’automatisation pour recruteurs et chercheurs d’emploi
Linkedin propose déjà depuis plusieurs mois à ses abonnés premium de nouvelles fonctionnalités exploitant la GenAI. Il s’agit notamment d’un mode de recherche d’emploi en conversant avec un chatbot, ou encore d’outils d’assistance pour rédiger une lettre de motivation, répondre à un mail ou retravailler un CV. En outre, ces capacités permettent aux recruteurs d'améliorer les descriptions d'emploi et aux utilisateurs de profiter d’une assistance pour certaines sections de leur profil.
Microsoft, la maison mère de Linkedin, a également adapté il y peu ses conditions d'utilisation. Soulignant notamment que ces outils GenAI ne sont pas destinés à être utilisés comme substituts de conseils professionnels.
Les risques juridiques que prennent les entreprises qui déploient ces technologies sont réels. La compagnie aérienne canadienne a par exemple été jugée responsable pour des conseils erronés fournis par son chatbot à un passager. En Suisse, les entreprises prennent d'ailleurs leurs précautions. A l’image de Helvetia, avec son chatbot Clara (propulsé par GPT-4) qui, dans ses conditions d'utilisation, décline toute garantie ou responsabilité quant à l’exactitude, l’exhaustivité ou l’actualité des informations mises à disposition» par son agent conversationnel.