Le Parlement européen a adopté la loi sur l'intelligence artificielle (AI Act), un texte législatif complet visant à lutter contre les risques associés à l'intelligence artificielle (AI). Cette loi interdit les applications de l'IA qui présentent des risques inacceptables pour la sécurité, les moyens de subsistance et les droits des citoyens de l'UE, telles que la manipulation du comportement cognitif et la notation sociale. Elle impose également des réglementations strictes sur les applications d'IA "à haut risque" dans des secteurs tels que la santé, les infrastructures et la justice. La loi affectera les entreprises opérant au sein de l'UE, y compris les grandes sociétés technologiques qui fournissent des produits d'IA aux consommateurs européens.
Cette législation soulève des questions sur l'influence mondiale des réglementations de l'UE connues sous le nom d'"effet Bruxelles" ; en effet, la loi sur l'IA devrait accroître la sensibilisation et l'examen des applications de l'IA dans divers domaines, ce qui pourrait conduire à des changements mondiaux comme l'a fait le règlement général sur la protection des données (RGPD) de l'UE dans le passé. Toutefois, le rôle normatif mondial de la loi sur l'IA n'est pas garanti, car d'autres pays comme la Chine réglementent aussi activement l'IA et établissent des normes, et certains pays pourraient simplement choisir de donner la priorité à la croissance plutôt qu'à la sécurité.
Plus de détails à Chatham House.
Le gouvernement britannique a annoncé que la création d'images "deepfake" sexuellement explicites sans consentement deviendrait une infraction pénale en Angleterre et au Pays de Galles. Les "deepfakes" sont des images ou des vidéos numériquement modifiées, créées à l'aide de l'intelligence artificielle pour superposer le visage d'une personne sur le corps d'une autre, souvent utilisées pour créer de faux contenus pornographiques mettant en scène des célébrités ou des personnalités publiques. Cette nouvelle loi prévoit un casier judiciaire et une amende pour toute personne qui crée de telles images, qu'elle ait ou non l'intention de les distribuer. Le ministère de la justice (MoJ) a déclaré que si le deepfake est partagé, le créateur pourrait également être condamné à une peine d'emprisonnement.
Alors que le partage de "deepfakes" avait déjà été rendu illégal l'année dernière par l'adoption de la loi sur la sécurité en ligne, cette nouvelle loi vise spécifiquement la création de ce type de contenu. Toutefois, des experts juridiques comme le professeur Clare McGlynn avertissent que la loi pourrait avoir des limites, car elle exige la preuve de l'intention de causer de la détresse, ce qui pourrait créer des lacunes. La loi couvrira les images d'adultes, les lois existantes s'appliquant déjà aux images d'enfants. La ministre des victimes, Laura Farris, a souligné que la loi envoie un message clair contre la création de fausses images sexuelles, qu'elle a qualifiée d'immorale et de misogyne. Des victimes et des personnalités politiques, dont la ministre de l'intérieur du cabinet fantôme Yvette Cooper, ont exprimé leur soutien à la loi, soulignant la nécessité d'une application rigoureuse pour protéger la vie privée et la dignité des individus.
Lire la suite sur BBC News.
Le monde du marketing connaît des changements importants et rapides, les consommateurs exigeant un meilleur contrôle de leurs interactions avec les marques, ce qui nécessite une refonte des stratégies de marketing traditionnelles. Les marques sont confrontées à divers défis, notamment la réorganisation de l'entonnoir marketing, la réalisation d'une mesure multiplateforme holistique et la nécessité d'agir rapidement en raison de la consommation d'informations en temps réel par les consommateurs.
Dans un article présentant les solutions apportées par son entreprise à ces problèmes, Kristin MacGregor, ancienne dirigeante de Google et de YouTube et aujourd'hui directrice commerciale de Smartly, met le doigt sur trois grandes tendances qui sont en train de remodeler le secteur :
Lisez l'intégralité de son interview sur le site The Drum.
Microsoft a annoncé un investissement important de 1,5 milliard de dollars dans G42, une entreprise d'IA basée aux Émirats arabes unis. Ce partenariat permet à G42 de vendre les services d'IA de Microsoft qui utilisent les puces avancées essentielles à l'entraînement des modèles d'IA. En échange, G42 adoptera les services cloud de Microsoft et se conformera à un accord de sécurité qui prévoit le retrait des équipements chinois de son infrastructure. Cet accord reflète les préoccupations du gouvernement américain en matière de protection de la propriété intellectuelle de l'IA et vise à réorienter les affiliations de G42 de la Chine vers les États-Unis.
Certains considèrent que cet accord fait partie de la stratégie de l'administration Biden pour contrer l'influence technologique de la Chine dans le golfe Persique, où les investissements dans l'IA sont en plein essor, et au-delà. Malgré les liens étroits des Émirats arabes unis avec les États-Unis, qui comprennent des achats d'armes importants, le pays a approfondi ses relations militaires et économiques avec la Chine. Les États-Unis se méfient particulièrement de la diffusion de la technologie de l'IA que la Chine pourrait exploiter, notamment après un incident de cybersécurité impliquant Microsoft. L'accord conclu avec G42 impose donc des contrôles stricts sur l'utilisation de sa technologie, notamment des audits et des restrictions sur le partage avec d'autres gouvernements ou à des fins de surveillance. G42 s'est également engagée à rompre certains liens avec la Chine, comme l'utilisation d'équipements de télécommunications Huawei.
Pour en savoir plus, consultez le New York Times.
→ Abonnez-vous à notre lettre d'information Tea O'Clock pour rester informé des dernières tendances du marché en suivant ce lien.
Découvrez les dernières actualités, articles, replays de webinars et événements fifty-five dans notre newsletter mensuelle Tea O’Clock.