A New Trick Uses AI to Jailbreak AI Models—Including GPT-4

  • Af
  • Episode
      1917
  • Published
      11. dec. 2023
  • Forlag
0 Anmeldelser
0
Episode
1917 of 2086
Længde
5M
Sprog
Engelsk
Format
Kategori
Fakta

Adversarial algorithms can systematically probe large language models like OpenAI’s GPT-4 for weaknesses that can make them misbehave. Read the story here.

Learn about your ad choices: dovetail.prx.org/ad-choices


Lyt når som helst, hvor som helst

Nyd den ubegrænsede adgang til tusindvis af spændende e- og lydbøger - helt gratis

  • Lyt og læs så meget du har lyst til
  • Opdag et kæmpe bibliotek fyldt med fortællinger
  • Eksklusive titler + Mofibo Originals
  • Opsig når som helst
Prøv nu
DK - Details page - Device banner - 894x1036

Other podcasts you might like ...