- t.b.d.
Sicherheitsrisiken von Sprachmodellen verstehen – im Spiegel klassischer Bedrohungsszenarien.
KI im Fokus: LLM Security by Analogy
Große Sprachmodelle (LLMs) erobern unsere Welt im Sturm – in Form von Werkzeugen wie ChatGPT und Claude Code, aber auch als Baustein in immer mehr unserer eigenen Produkte.
Ohne ein grundlegendes Verständnis der Funktionsweise dieser Systeme sind die damit verbundenen Sicherheitsrisiken jedoch selbst für erfahrene IT-Fachleute schwer einzuschätzen: Wie bei jeder jungen Technologie fehlen noch Erfahrungswerte, etablierte Best Practices und größere Vorfälle „in freier Wildbahn“, an denen wir uns orientieren könnten.
In diesem Vortrag entwickeln wir ein klares Bild des „Tödlichen Trios“ der LLM-Sicherheit und ziehen Parallelen zwischen neuen Nutzungsmustern von LLMs und altbekannten Sicherheitsrisiken aus der IT. Diese Analogien helfen dabei, Risiken realistischer zu bewerten, vertraute Denkmuster aus der Security-Welt weiterzuverwenden und sinnvolle Schutzmaßnahmen für den praktischen Einsatz von LLMs abzuleiten.
Ihr Referent:
Jonas Lorenz:
Jonas Lorenz hat sich aus vielen Blickwinkeln mit Künstlicher Intelligenz beschäftigt: als Student der Mathematik und Kognitionswissenschaften, als Data Scientist und Machine-Learning-Engineer, als Entwickler und Software Architekt, Startup-Gründer und heute als Solution Architect bei der IDV.
Sicherheit und Datenschutz interessieren ihn nicht nur als Software-Architekt von zertifizierten Systemen für kritische Infrastruktur, sondern auch als Vater von zwei Kindern, die sich regelmäßig kreative Ausmalbilder von DALL-E und Nano Banana wünschen.
Mit großer Begeisterung kombiniert er unterschiedliche Perspektiven, schlägt Brücken zwischen Disziplinen und macht komplexe Zusammenhänge einem neuen Publikum auf unkonventionelle Weise zugänglich.
Ihr Referent sowie das Team der IDV AG stehen Ihnen im Anschluss für eine zwanglose Gesprächsrunde in lockerer Atmosphäre zur Verfügung.
Wir freuen uns darauf, Sie in unserem Haus zu begrüßen!