Depuis fin 2022, les réseaux sociaux sont inondés d’un nouveau genre de photos : Nombreux sont ceux qui, par effet de mode, ont commencé à utiliser des applications de photo créatives alimentées par l’IA (intelligence artificielle) de type PhotoDirector, Lensa AI, Starryai, Dawn AI et bien d’autres. Mais alors que ces applications continuent de gagner en popularité, de nouveaux risques de cybersécurité et de mise en danger des données sont apparus.
Daniel Markuson, expert en cybersécurité chez NordVPN déclare à ce sujet : “Problèmes de confidentialité, manipulation des données, manque de transparence et vulnérabilités des logiciels : les applis photo alimentées par l'Intelligence Artificielle ont révolutionné la façon dont nous prenons et partageons nos photos, mais elles s'accompagnent également de nouveaux risques qui doivent être pris en compte"
Selon cet expert, "Les utilisateurs doivent être conscients de ces risques et prendre des mesures pour protéger leurs informations et données personnelles lorsqu'ils utilisent ces applications."
Les principaux risques inhérents aux applications Photo IA :
Protection de la vie privée. Ces apps ont la capacité d'analyser et de traiter de grandes quantités de données personnelles, telles que bien entendu des images mais aussi des données de localisation. Ces données peuvent être utilisées pour créer des profils détaillés des utilisateurs, notamment leurs centres d’intérêts, leurs habitudes et leurs déplacements. Si ces données ne sont pas correctement protégées et sécurisées, elles peuvent être consultées et utilisées par des annonceurs ou des hackers. Cela peut entraîner des violations de la vie privée, des vols d'identité et d'autres formes de préjudice. En outre, les applications de photos alimentées par l'IA peuvent utiliser la technologie de reconnaissance faciale, qui peut être détournées à des fins néfastes comme la surveillance par exemple.
“Il est important que les développeurs de ces applications mettent en œuvre de solides mesures de protection des données et que les utilisateurs soient conscients des risques potentiels et prennent des mesures pour protéger leurs informations personnelles. Ne pas partager sa localisation quand cela n’est pas nécessaire est la première mesure qu’ils peuvent prendre d’ailleurs”, commente Daniel Markuson.
En effet, ces applications peuvent être utilisées pour créer des images ou des vidéos deepfake. Et, en raison du réalisme toujours plus bluffant des images générées, les deepfakes peuvent constituer un puissant outil de désinformation destiné à nuire à l’adversaire, via la diffusion de fausses informations toujours plus convaincantes. Par exemple, peu après l’invasion de l’Ukraine par la Russie en février 2022, plusieurs vidéos deepfake sont apparues en ligne, montrant le président ukrainien en train de capituler. Plus la technologie deepfake sera sophistiquée, plus ces contenus deviendront difficiles à détecter.
Les deepfakes peuvent également être utilisés par les cybercriminels dans le but d’inciter les victimes à partager leurs informations personnelles. Par exemple, si vous recevez un simple message Facebook provenant d’un ami expliquant qu’il a besoin d’une aide financière urgente, cela peut éveiller vos soupçons. En revanche, une vidéo conçue pour imiter le visage et la voix de cette personne sera bien plus convaincante, et pourra rendre toujours plus efficaces les techniques d’ingénierie sociale.
Daniel Markuson préconise d’utiliser des applications de développeurs connus et de maintenir vos applications à jour pour vous protéger contre les vulnérabilités déjà identifiées. Il exhorte également les utilisateurs à lire les conditions de service et la politique de confidentialité avant de télécharger et d'utiliser une application de façon générale.