Un mois après le licenciement puis la réembauche de son PDG Sam Altman, l'OpenAI a publié une série de lignes directrices visant à déterminer quels modèles d'IA pourraient présenter un "risque catastrophique" pour les humains. Le "Preparedness Framework" vise à combler le fossé entre l'étude scientifique des risques liés à l'IA et la réalité de son état actuel. L'équipe de surveillance et d'évaluation d'Open AI prévoit d'examiner chaque nouveau modèle pour lui attribuer l'un des quatre niveaux de risque suivants : faible, moyen, élevé ou critique, dans quatre catégories. La première concerne la cybersécurité, la deuxième la capacité d'un modèle à aider les humains à causer des dommages à grande échelle à d'autres personnes (par exemple au moyen d'un virus ou d'une arme nucléaire), la troisième son influence potentielle sur le comportement humain et la quatrième son autonomie potentielle, en particulier lorsqu'il n'est pas entravé. Selon le cadre de l'entreprise, seuls les modèles considérés comme présentant un risque faible ou moyen devraient être diffusés.
Après l'évaluation des risques, l'équipe soumettra ses conclusions au groupe consultatif sur la sécurité de l'OpenAI. Les décisions finales concernant la réduction des risques seront prises par le directeur de l'OpenAI, le conseil d'administration ayant le pouvoir d'annuler ces décisions. Pour rappel, le licenciement d'Altman par le conseil d'administration de l'OpenAI était en partie motivé par le fait qu'il favorisait le développement accéléré de l'IA, sans se soucier des menaces qu'elle pouvait représenter. Il a été réengagé quelques jours plus tard après que le personnel et les investisseurs ont protesté contre cette décision, et les membres du conseil d'administration ont depuis été remplacés.
Plus d'informations sur Techxplore.
Par coïncidence, une société d'IA nommée Verses a rédigé une lettre ouverte publiée dans le New York Times pour demander le soutien de l'OpenAI après une "percée interne significative" vers l'intelligence artificielle générative, ou AGI. Verses a notamment mentionné une avancée dans le domaine de l'inférence active, un concept qui vise à fournir un cadre mathématique pour la compréhension de la sensibilité vivante. Cette évolution pourrait contribuer à rendre les grands modèles de langage plus fiables et bénéfiques pour l'humanité, selon Verses, et conduire à terme à l'IAG. Dans sa lettre ouverte, Verses affirme qu'elle remplit les conditions requises pour bénéficier de l'aide de l'OpenAI dans le cadre de son projet, tout en professant son engagement en faveur d'un "projet soucieux de la sécurité".
À l'instar de ses concurrents Deepmind, Anthropic et autres, OpenAI n'a pas caché son intention de développer l'AGI. Dans l'énoncé de sa mission publié sur son site web, l'entreprise déclare : "Créer une IA sûre qui profite à l'ensemble de l'humanité". Contrairement aux modèles d'IA actuels, qui tendent à être conçus pour un ensemble spécifique de tâches, l'AGI pourrait - en théorie - égaler ou surpasser l'intelligence humaine. Certains experts craignent que l'avènement de l'IAG ne signifie que la singularité a été atteinte (c'est-à-dire l'obtention d'une intelligence artificielle semblable à celle de l'homme) et que l'algorithme évoluerait alors inévitablement vers la superintelligence, même sans l'intervention de l'homme. D'autres experts ont exprimé des doutes quant à la possibilité d'atteindre l'AGI. En attendant, seul l'avenir nous dira si la lettre ouverte de Verses est un véritable appel à la collaboration... ou un simple coup de publicité.
Plus d'informations sur le Drum.
Après près de 40 heures de négociations, les représentants de l'UE réunis à Bruxelles se sont mis d'accord sur un ensemble historique de règles relatives à l'utilisation de l'intelligence artificielle (IA) : l'AI Act. Cet accord marque le début d'une nouvelle ère après des années de développement débridé, riches en risques d'abus, qui ont suscité des mises en garde de la part de personnalités influentes, dont Bill Gates, Elon Musk et Sam Altman, comme mentionné plus haut. "Nous avions pour objectif de proposer une législation qui garantirait que l'écosystème de l'IA en Europe se développe avec une approche centrée sur l'homme, en respectant les droits fondamentaux, les valeurs humaines, la confiance, la conscience de la façon dont nous pouvons tirer le meilleur parti de cette révolution de l'IA qui se déroule sous nos yeux", a déclaré l'eurodéputé Brando Benefei, de l'Italie.
En définissant un système à plusieurs niveaux fondé sur le risque pour l'industrie, avec des niveaux de réglementation correspondants, la loi sur l'IA vise à favoriser le développement éthique de l'IA. Elle comprend un cadre réglementaire solide pour les modèles d'IA générative, la surveillance par l'IA, les technologies biométriques et les normes de transparence, entre autres. La loi sur l'IA devrait servir de référence aux autres gouvernements qui n'ont pas encore établi de réglementation sur l'IA, et ses effets pourraient s'étendre aux marchés non européens. Comme l'a déclaré à AP Anu Bradford, professeur de droit à Columbia : "Après tout, il n'est pas efficace d'entraîner à nouveau des modèles distincts pour différents marchés." Cet accord fait suite à une série de décisions fortes de l'UE visant à réglementer l'industrie technologique, telles que la loi sur les marchés numériques et la loi sur les services numériques.
Plus d'informations sur le portail technologique et le Guardian.
Ces dernières années, la protection de la vie privée dans le domaine numérique a été un sujet brûlant, réclamée sans ambiguïté par les consommateurs, mais rarement accordée par les géants de la technologie. En 2023, cependant, la situation semble avoir évolué en faveur des consommateurs, les grandes entreprises technologiques ayant récemment amélioré leurs pratiques en matière de protection de la vie privée.
Apple, qui n'est pas étranger à la protection de la vie privée des consommateurs, a encore renforcé les protections de ses appareils et introduit la "vérification de la clé de contact" dans iOS 17.2, qui permet aux utilisateurs de vérifier les conversations sur Messenger et d'éviter ainsi d'éventuelles escroqueries de la part d'imitateurs. Google a annoncé que l'historique de localisation de Google Maps serait bientôt sauvegardé directement sur l'appareil de l'utilisateur, et non plus sur le site cloud, afin de renforcer la protection de la vie privée. Enfin, Meta a commencé à déployer le chiffrement de bout en bout pour les discussions sur Facebook Messenger, ce qui constitue l'une de ses plus grandes améliorations en matière de protection de la vie privée à ce jour.
Pour en savoir plus, lisez Fast Company.
Découvrez les dernières actualités, articles, replays de webinars et événements fifty-five dans notre newsletter mensuelle Tea O’Clock.