Organisationen setzen zunehmend auf KI, um die positiven Auswirkungen, die sie für ihre Stakeholder erzielen wollen, schneller und in größerem Umfang zu erreichen. Der Einsatz von KI ist zwar vorteilhaft, hat aber auch eine neue Angriffsfläche eröffnet, für die herkömmliche Sicherheitssysteme nicht ausgelegt sind, sodass sie die neu entdeckten Bedrohungsvektoren weder bewerten noch vor ihnen schützen können.
Die proaktive Bewertung von Sicherheitslücken in diesen KI-Systemen während der Entwicklung ist ein effizienter und kostengünstiger Weg, um Ihre Entwickler in die Lage zu versetzen, die wirkungsvollsten KI-Anwendungen zu entwickeln und einen bedeutenden Wettbewerbsvorteil in Ihrer Branche zu erzielen.
Prisma® AIRS™ AI Red Teaming testet die Inferenz einer bestimmten LLM- oder LLM-basierten Anwendung auf diese Sicherheitslücken. Es wird getestet, ob eine Anwendung eine nicht markengerechte Ausgabe erzeugt oder ein Agent eine Aufgabe ausführt, für die er nicht vorgesehen ist.