RE mit AI - resourcenhungrige Large Language Models oder geht es auch mit weniger Ressourcen?
Tag und Uhrzeit: Montag, 22. April 2024, 09:00 - 13:00 Uhr
Der Einsatz von künstlicher Intelligenz im Requirements Engineering hat mit den schnell fortschreitenden Entwicklungen im Bereich großer Sprachmodelle (Large Language Models - LLMs) großen Aufwind´erhalten. Leider sind diese Modelle auch genau das - groß und somit speicher- und performance-hungrig.
In diesem Workshop betrachten wir Anwendungsfälle für den Einsatz von AI (insbesondere Natural Language Processing - NLP) und erarbeiten mit den Teilnehmern, wie sich diese mit modernen Large-Language Models und weniger aufwändigen Technologien umsetzen lassen. Dazu betrachten wir im Workshop zwei Anwendungsfälle:
1. Qualitätschecker für Anforderungen
Wir erarbeiten einen Checker, der gewisse inhaltliche und formale Regeln bei Requirements überprüft - und z.B. eine Warnung ausgibt, wenn die Anforderung passiv formuliert ist und kein definiertes Subjekt enthält oder wenn ungenaue Spezifikationen verwendet werden (“Das Fahrzeug soll schnell fahren” - Was heisst schnell?
2. Klassifizierung von Anforderungen
Anforderungen werden in vorgegebenen Kategorien klassifiziert (zb. funktional / nicht-funktional, sicherheitsrelevant, mechanisch/elektrisch/Software). Diese Gruppierung unterstützt eine einfachere Organisation der Bearbeitung, z.B. durch Zuweisung des Reviews an verschiedene Expertengruppen. Für beide Anwendungsfälle erarbeiten wir mit den Teilnehmern jeweils eine Lösung basierend auf großen LLMs, die auf dedizierte AI-Hardware benötigen und eine Lösung, die sich auch auf Standard-Rechnern umsetzen läßt und vergleichen Aufwand, Kosten und Leistungsfähigkeit.
Workshopgestaltung:
Der Workshop ist als Programmier-Workshop konzipiert. Zu Beginn eines Abschnitts werden die Konzepte und Lösungsansätze vorgestellt. Danach haben die Teilnehmer Gelegenheit, vorbereiteten Code-Rahmen zu nutzen, um eine Lösung zu implementieren.
Lernziele:
- Die Teilnehmer erhalten einen Überblick über die Möglichkeiten des Einsatzes von AI im Requirements Engineering
- Die Teilnehmer erhalten eine Einführung in die grundlegenden Konzepte des Natural Language Processings und der Large Language Models
- Die Teilnehmer lernen die grundlegenden verbreiteten Frameworks kennen
- Die Teilnehmer sind in der Lage, einfache AI-basierte Anwendungen für das Requirements Engineering selbst zu entwickeln.
Voraussetzungen für die Teilnahme am Workshop:
- Technisches Interesse an Programmierung, grundlegende Programmierkenntnisse
- Grundlegendes Verständnis von Requirements Engineering
Workshop-Level: Einsteiger
Welches Equipment sollen die Workshopteilnehmer mitbringen? (z.B. Notebook, Tablet, usw.):
- Eigenes Notebook
- Zugriff zum Internet (wir werden Python-Notebooks und ähnliches vorbereiten)
Agenda des Workshops:
- Einführung in die technischen Grundlagen und Fragestellungen
- Bereitstellung der technischen Infrastruktur (Zugriff auf Python-Notebooks, Online Services)
- Vorstellung Anwendungsfall 1 - Qualitätschecker
- Gemeinsames bzw. individuelles Erarbeiten einer LLM-basierten Lösung
- Gemeinsames bzw. individuelles Erarbeiten einer NLP-basierten Lösung
- Diskussion und Vergleich
- Vorstellung Anwendungsfall 2 - Klassifizierung von Anforderungen
- Gemeinsames bzw. individuelles Erarbeiten einer LLM-basierten Lösung
- Gemeinsames bzw. individuelles Erarbeiten einer NLP-basierten Lösung
- Diskussion und Vergleich
- Ausblick und Diskussion
Sruthi Radhakrishnan
Sruthi Radhakrishnan arbeitet als AI Consultant bei der itemis AG in Stuttgart. Seit mehreren Jahren beschäftigt sie sich mit dem Einsatz von Machine Learning im Bereich "Modellbasierte Systementwicklung (MBSE)”. Ihre Masterarbeit basiert auf der Entwicklung eines Frameworks für die Vorhersage fehlender Links in Traceability-Graphen, das traditionelle und moderne Ansätze des maschinellen Lernens umfasst. Nach Abschluss ihres Masterstudium der Informatik an der Universität Stuttgart begann sie bei der itemis AG als AI Consulting mit dem Schwerpunkt “AI 4 MBSE”. Aktuell beschäftigt sie sich mit dem Einsatz von Large-Language Models (LLMs) insbesondere im Requirements Engineering in der Entwicklung von cyberphysikalischen Systemen (Raumfahrt und Automotive). Sie hält regelmäßig Vorträge auf Konferenzen zu diesen Themen.
Ario Giancarlo Cecchettini
Ario Giancarlo Cecchettini arbeitet als AI Consultant bei der itemis AG in. Er arbeitet an Lösungen in den Bereichen natürliche Sprachverarbeitung, maschinelles Lernen und Cloud-Plattformen. Aktuell beschäftigt sie sich mit dem Einsatz verschiedenster Technologien aus dem Natural Language Processing (NLP) und Natural Language Understanding (NLU) insbesondere im Requirements Engineering in der Entwicklung von cyberphysikalischen Systemen (Raumfahrt und Automotive). Er studierte Computerlinguistik (B.Sc.) an der Ludwig-Maximilians-Universität in München. Im Rahmen öffentlich geförderter Forschungsprojekte arbeitet er bei der itemis AG an neuen innovativen Lösungen im Bereich “AI 4 MBSE”.