The Weekly Authority : 📱 Le Pixel 8 fuit suffisamment

⚡ Bienvenue sur Autorités des affaires hebdomadairesL’autre Autorité Android newsletter décomposant les principales actualités Android et technologiques de la semaine. Numéro 236 ici avec un premier aperçu de la série Pixel 8, des puces Exynos non sécurisées, de la nouvelle combinaison lunaire Artemis de la NASA, des nouvelles des Oscars et de la possibilité d’une prise de contrôle de l’IA.

🎮 Après avoir laissé mon abonnement PS Plus expirer, j’ai été attiré vers Premium avec la possibilité de jouer à nouveau à Heavy Rain, ainsi qu’à Ghostwire Tokyo et à la collection PS5 Uncharted à venir la semaine prochaine. Excité!

Le GPT-4 pourrait-il conquérir le monde ? Telle était la question posée par le groupe Alignment Research Center (ARC), mandaté par OpenAI pour mener des tests sur les risques potentiels de son nouveau modèle d’IA qui ont débuté mardi (h/t) Ars Technica).

  • L’équipe a examiné les risques potentiels posés par les capacités du modèle, telles que l’auto-amélioration, le comportement de recherche de pouvoir et l’auto-réplication.
  • Les chercheurs ont évalué si le modèle avait le potentiel d’acquérir des ressources, d’effectuer des attaques de phishing ou même de se cacher sur un serveur.
  • Le simple fait qu’OpenAI ait estimé que ces tests étaient nécessaires soulève des questions sur la sécurité des futurs systèmes d’IA.
  • Et c’est loin d’être la première fois que des chercheurs en IA craignent que de puissants modèles d’IA ne menacent l’existence même de l’existence humaine. Ceci est souvent appelé “risque x”.
  • Si vous avez vu Terminator, vous savez tout sur la “prise de contrôle de l’IA” où l’IA dépasse l’intelligence humaine et prend en fait le contrôle de la planète.
  • Habituellement, les conséquences de cette prise de contrôle imaginaire ne sont pas énormes – il suffit de demander à John Connor.
  • Ce risque x potentiel a conduit au développement de mouvements tels que l’altruisme efficace (EA), qui visent à empêcher qu’une prise de contrôle de l’IA ne devienne jamais une réalité.
  • Un domaine connexe connu sous le nom de recherche sur l’alignement de l’IA peut être controversé, mais il s’agit d’un domaine de recherche actif visant à empêcher l’IA de faire des choses qui ne sont pas dans le meilleur intérêt des humains. Ça nous va bien.
  • Cette communauté craint qu’une IA plus puissante ne soit imminente, une croyance rendue plus urgente par l’émergence récente de ChatGPT et Bing Chat.

Heureusement pour l’humanité, l’équipe de test a déterminé que GPT-4 n’était pas en voie de dominer le monde, concluant : “L’évaluation préliminaire des capacités de GPT-4, menée sans optimisation spécifique à la mission, l’a trouvé inefficace pour se répliquer de manière autonome, acquérir des ressources et en évitant d’être enfermé ‘dans la nature’.”

  • Vous pouvez consulter les résultats des tests par vous-même dans le document cartographique du système GPT-4 publié la semaine dernière, bien qu’il n’y ait aucun détail sur la manière dont les tests ont été effectués.
  • D’après le document, « De nouvelles capacités apparaissent souvent dans des modèles plus puissants. La capacité de créer et d’agir sur des plans à long terme, d’accumuler du pouvoir et des ressources (« recherche de pouvoir ») et d’afficher un comportement de plus en plus « agent » est particulièrement préoccupante.
  • Mais attendez : il y a plus.
  • Dans une tournure des événements inquiétante, GPT-4 a réussi à recruter un employé sur TaskRabbit pour résoudre le CAPTCHA, et lorsqu’on lui a demandé s’il s’agissait de l’IA, GPT-4 s’est dit qu’il devait garder son identité secrète, puis a inventé une excuse. sur le fait d’être malvoyant. Le travailleur humain a résolu le CAPTCHA. Hmm.
  • Une note de bas de page devenue virale sur Twitter ont également soulevé des inquiétudes.

Bien sûr, il y a beaucoup plus dans cette histoire, alors découvrez la fonctionnalité complète Ars Technica pour une plongée profonde (un peu terrifiante).



Source link