**OpenAI, DeepMind ouvrira le modèle au gouvernement britannique ? **
Le Premier ministre britannique Rishi Sunak a annoncé lundi lors de la London Tech Week que DeepMind, OpenAI et Anthropic de Google ont accepté d'ouvrir leurs modèles d'intelligence artificielle au gouvernement britannique à des fins de recherche et de sécurité.
Le Premier ministre britannique Rishi Sunak a déclaré que cela permettrait au gouvernement britannique ** d'"aider à construire de meilleures évaluations pour mieux comprendre les opportunités et les risques de ces systèmes" **. Le discours de Sunak, cette fois, préconise principalement que l'intelligence artificielle devrait remodeler les domaines de l'éducation et de la médecine, et annonce le potentiel du Royaume-Uni en tant qu'"îlot d'innovation".
"* L'IA est certainement l'une des plus grandes opportunités qui s'offrent à nous", a déclaré Sunak. En combinant des modèles d'IA avec la puissance du quantique, "les possibilités sont extraordinaires".
En mars 2023, le gouvernement britannique a publié un livre blanc sur l'intelligence artificielle proposant une approche "Pro-innovation", mais récemment Sunak a souligné la nécessité de "Garde-corps".
Sunak a déclaré lundi que ** le Royaume-Uni veut être non seulement un domaine central de connaissances scientifiques, mais également un foyer géographique pour la réglementation mondiale de la sécurité de l'intelligence artificielle", mais le Royaume-Uni n'a pas encore répertorié de propositions et de réglementations spécifiques. .**
La clé de ces réglementations et plans sera le Sommet mondial sur la sécurité de l'IA au Royaume-Uni cet automne, que Sunak compare à ** "la version IA de la Conférence des Parties des Nations Unies sur le changement climatique". **
En outre, un groupe de travail sous la forme d'une fondation a également été créé, investissant actuellement environ 100 millions de livres dans un soutien financier pour mener des recherches sur la technologie de sécurité de l'intelligence artificielle.Le Royaume-Uni a d'abord déclaré que l'approche réglementaire flexible et équilibrée au Royaume-Uni continuer à en faire un lieu d'investissement attrayant.
Anthropic et OpenAI ont récemment établi leur siège européen au Royaume-Uni, et Palantir a annoncé la semaine dernière l'ouverture d'un centre de recherche sur l'IA au Royaume-Uni.
Il convient de noter que le PDG d'OpenAI, Sam Altman, a visité des pays européens en mai 2023, rencontré des agences de réglementation de divers pays et rencontré des chefs de gouvernement, dont l'Espagne, la Pologne, la France et le Royaume-Uni.
Altman a rencontré pour la première fois le Premier ministre espagnol Pedro Sanchez, ** car l'Espagne occupe la présidence tournante de six mois du Conseil européen cet été, ce qui signifie qu'à un moment critique de la négociation du règlement sur l'intelligence artificielle, l'Espagne a beaucoup à jouer marge de manœuvre pour influencer la discussion. ** Et en France, en Pologne et en Espagne, les chefs de gouvernement régionaux sont susceptibles d'exercer une influence, par le biais du Conseil européen, sur la forme finale de la normalisation de l'UE en matière d'IA.
Altman, qui a également participé à la discussion à l'UCL, a été interviewé sur scène, citant ** sa préférence pour une réglementation qui se situe "quelque part entre l'approche traditionnelle européenne et l'approche traditionnelle américaine". **
En mai 2023, les membres de deux commissions clés du Parlement européen, une série d'amendements au cadre réglementaire de l'IA basé sur les risques initialement proposé par la commission (avril 2021), visant à garantir que l'intelligence artificielle générale, les modèles de base et l'intelligence artificielle générative L'intelligence est en dehors du champ d'application des règles.
Le Parlement européen soutient l'obligation pour les fournisseurs de modèles sous-jacents d'appliquer des contrôles de sécurité, des mesures de gouvernance des données et des mesures d'atténuation des risques avant de mettre des modèles sur le marché, ce qui inclut l'obligation d'examiner "la possibilité pour la santé, la sécurité, les droits fondamentaux, l'environnement, ainsi que ainsi que la démocratie et l'État de droit". risques prévisibles".
Les modifications obligeront également les fabricants de modèles de base à réduire la consommation d'énergie et l'utilisation des ressources de leurs systèmes ** et à s'enregistrer auprès des bases de données de l'UE, tandis que les fournisseurs de technologies d'IA génératives telles que ChatGPT d'OpenAI se verront imposer des obligations de transparence, ce qui signifie que la technologie d'IA les fournisseurs doivent s'assurer que les utilisateurs sont informés que le contenu est généré par une machine et prendre des "protections adéquates" pour le contenu généré par leurs systèmes ; et fournir des résumés de tout matériel protégé par le droit d'auteur utilisé pour former leur intelligence artificielle. **
Cependant, lors de ce voyage en Europe, le PDG d'OpenAI a pris le temps de rencontrer le Premier ministre britannique Sunak, et a tenu une réunion avec Demis Hassabis de DeepMind et Dario Amodei d'Anthropic avec Sunak. Bien sûr, le Royaume-Uni reste une économie européenne majeure. En outre, il y a des rumeurs selon lesquelles OpenAI envisage de créer un siège local dans le pays. Et Anthropic vient d'ouvrir son propre bureau à Londres. Pour OpenAI, du moins en termes de réglementation, le Royaume-Uni n'est plus membre de l'Union européenne, ce qui signifie qu'il ne peut pas participer à la législation de l'EU AI Act.
Au-delà de cela, l'attitude du gouvernement Sunak est que le gouvernement n'a pas l'intention de créer une nouvelle législation nationale pour réglementer l'intelligence artificielle. Parmi eux, un récent livre blanc du gouvernement britannique propose de s'appuyer uniquement sur les organismes de réglementation existants, tels que les autorités de la concurrence et les organismes de surveillance de la vie privée, pour fournir des conseils pour le développement sûr de l'intelligence artificielle, plutôt que de légiférer pour réglementer l'utilisation de la technologie. **
quelques idées
Le Royaume-Uni est susceptible de bénéficier de ses propres avantages géographiques et d'occuper le domaine important de la sécurité de l'intelligence artificielle pour exercer sa propre influence. ** Par exemple, si les géants de l'IA soutiennent un dialogue mené par le Royaume-Uni sur la recherche sur la sécurité de l'IA, ils peuvent bien façonner les règles britanniques en matière d'IA applicables à leurs propres entreprises, et le Royaume-Uni en bénéficiera également dans ce cas. **
Mais si le sommet britannique sur la sécurité de l'intelligence artificielle doit être un succès réel et crédible, il doit réunir des chercheurs du monde entier et engager activement des chercheurs indépendants, des groupes de la société civile et des organisations techniques, et pas seulement "une société d'intelligence artificielle de premier plan" et sa propre coopération universitaire locale. plan.
** Et le sommet mondial sur la sécurité de l'intelligence artificielle doit abandonner les préjugés et les différences, et rechercher le bien-être commun pour la sécurité de l'être humain tout entier dans le monde AGI. **
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Plusieurs avis sur OpenAI, DeepMind, etc. pour ouvrir le modèle au gouvernement britannique
**OpenAI, DeepMind ouvrira le modèle au gouvernement britannique ? **
Le Premier ministre britannique Rishi Sunak a annoncé lundi lors de la London Tech Week que DeepMind, OpenAI et Anthropic de Google ont accepté d'ouvrir leurs modèles d'intelligence artificielle au gouvernement britannique à des fins de recherche et de sécurité.
Le Premier ministre britannique Rishi Sunak a déclaré que cela permettrait au gouvernement britannique ** d'"aider à construire de meilleures évaluations pour mieux comprendre les opportunités et les risques de ces systèmes" **. Le discours de Sunak, cette fois, préconise principalement que l'intelligence artificielle devrait remodeler les domaines de l'éducation et de la médecine, et annonce le potentiel du Royaume-Uni en tant qu'"îlot d'innovation".
"* L'IA est certainement l'une des plus grandes opportunités qui s'offrent à nous", a déclaré Sunak. En combinant des modèles d'IA avec la puissance du quantique, "les possibilités sont extraordinaires".
En mars 2023, le gouvernement britannique a publié un livre blanc sur l'intelligence artificielle proposant une approche "Pro-innovation", mais récemment Sunak a souligné la nécessité de "Garde-corps".
Sunak a déclaré lundi que ** le Royaume-Uni veut être non seulement un domaine central de connaissances scientifiques, mais également un foyer géographique pour la réglementation mondiale de la sécurité de l'intelligence artificielle", mais le Royaume-Uni n'a pas encore répertorié de propositions et de réglementations spécifiques. .**
La clé de ces réglementations et plans sera le Sommet mondial sur la sécurité de l'IA au Royaume-Uni cet automne, que Sunak compare à ** "la version IA de la Conférence des Parties des Nations Unies sur le changement climatique". **
En outre, un groupe de travail sous la forme d'une fondation a également été créé, investissant actuellement environ 100 millions de livres dans un soutien financier pour mener des recherches sur la technologie de sécurité de l'intelligence artificielle.Le Royaume-Uni a d'abord déclaré que l'approche réglementaire flexible et équilibrée au Royaume-Uni continuer à en faire un lieu d'investissement attrayant.
Anthropic et OpenAI ont récemment établi leur siège européen au Royaume-Uni, et Palantir a annoncé la semaine dernière l'ouverture d'un centre de recherche sur l'IA au Royaume-Uni.
Il convient de noter que le PDG d'OpenAI, Sam Altman, a visité des pays européens en mai 2023, rencontré des agences de réglementation de divers pays et rencontré des chefs de gouvernement, dont l'Espagne, la Pologne, la France et le Royaume-Uni.
Altman a rencontré pour la première fois le Premier ministre espagnol Pedro Sanchez, ** car l'Espagne occupe la présidence tournante de six mois du Conseil européen cet été, ce qui signifie qu'à un moment critique de la négociation du règlement sur l'intelligence artificielle, l'Espagne a beaucoup à jouer marge de manœuvre pour influencer la discussion. ** Et en France, en Pologne et en Espagne, les chefs de gouvernement régionaux sont susceptibles d'exercer une influence, par le biais du Conseil européen, sur la forme finale de la normalisation de l'UE en matière d'IA.
Altman, qui a également participé à la discussion à l'UCL, a été interviewé sur scène, citant ** sa préférence pour une réglementation qui se situe "quelque part entre l'approche traditionnelle européenne et l'approche traditionnelle américaine". **
En mai 2023, les membres de deux commissions clés du Parlement européen, une série d'amendements au cadre réglementaire de l'IA basé sur les risques initialement proposé par la commission (avril 2021), visant à garantir que l'intelligence artificielle générale, les modèles de base et l'intelligence artificielle générative L'intelligence est en dehors du champ d'application des règles.
Le Parlement européen soutient l'obligation pour les fournisseurs de modèles sous-jacents d'appliquer des contrôles de sécurité, des mesures de gouvernance des données et des mesures d'atténuation des risques avant de mettre des modèles sur le marché, ce qui inclut l'obligation d'examiner "la possibilité pour la santé, la sécurité, les droits fondamentaux, l'environnement, ainsi que ainsi que la démocratie et l'État de droit". risques prévisibles".
Les modifications obligeront également les fabricants de modèles de base à réduire la consommation d'énergie et l'utilisation des ressources de leurs systèmes ** et à s'enregistrer auprès des bases de données de l'UE, tandis que les fournisseurs de technologies d'IA génératives telles que ChatGPT d'OpenAI se verront imposer des obligations de transparence, ce qui signifie que la technologie d'IA les fournisseurs doivent s'assurer que les utilisateurs sont informés que le contenu est généré par une machine et prendre des "protections adéquates" pour le contenu généré par leurs systèmes ; et fournir des résumés de tout matériel protégé par le droit d'auteur utilisé pour former leur intelligence artificielle. **
Cependant, lors de ce voyage en Europe, le PDG d'OpenAI a pris le temps de rencontrer le Premier ministre britannique Sunak, et a tenu une réunion avec Demis Hassabis de DeepMind et Dario Amodei d'Anthropic avec Sunak. Bien sûr, le Royaume-Uni reste une économie européenne majeure. En outre, il y a des rumeurs selon lesquelles OpenAI envisage de créer un siège local dans le pays. Et Anthropic vient d'ouvrir son propre bureau à Londres. Pour OpenAI, du moins en termes de réglementation, le Royaume-Uni n'est plus membre de l'Union européenne, ce qui signifie qu'il ne peut pas participer à la législation de l'EU AI Act.
Au-delà de cela, l'attitude du gouvernement Sunak est que le gouvernement n'a pas l'intention de créer une nouvelle législation nationale pour réglementer l'intelligence artificielle. Parmi eux, un récent livre blanc du gouvernement britannique propose de s'appuyer uniquement sur les organismes de réglementation existants, tels que les autorités de la concurrence et les organismes de surveillance de la vie privée, pour fournir des conseils pour le développement sûr de l'intelligence artificielle, plutôt que de légiférer pour réglementer l'utilisation de la technologie. **
quelques idées
Le Royaume-Uni est susceptible de bénéficier de ses propres avantages géographiques et d'occuper le domaine important de la sécurité de l'intelligence artificielle pour exercer sa propre influence. ** Par exemple, si les géants de l'IA soutiennent un dialogue mené par le Royaume-Uni sur la recherche sur la sécurité de l'IA, ils peuvent bien façonner les règles britanniques en matière d'IA applicables à leurs propres entreprises, et le Royaume-Uni en bénéficiera également dans ce cas. **
Mais si le sommet britannique sur la sécurité de l'intelligence artificielle doit être un succès réel et crédible, il doit réunir des chercheurs du monde entier et engager activement des chercheurs indépendants, des groupes de la société civile et des organisations techniques, et pas seulement "une société d'intelligence artificielle de premier plan" et sa propre coopération universitaire locale. plan.
** Et le sommet mondial sur la sécurité de l'intelligence artificielle doit abandonner les préjugés et les différences, et rechercher le bien-être commun pour la sécurité de l'être humain tout entier dans le monde AGI. **