Für Gründer: AI-Tools nutzen und selbst entwickeln

AI-Implementierung bei Startups

19/07/2024
header image

Nach dem anfänglichen Hype etabliert sich Generative AI zunehmend und immer mehr Startups setzen AI-Tools operativ ein, um bessere Ergebnisse zu erzielen. Viele arbeiten auch daran, die Möglichkeiten von GenAI für ihre Produkte zu nutzen. Laut einer aktuellen Studie von AWS hat bereits ein Drittel der europäischen Unternehmen AI eingeführt.* Mit Blick auf Stabilität und Engineering-Qualität befindet sich die Industrie zwar noch in einer Prototyping-Phase, dennoch sollten Gründer einen Plan für die Eigenentwicklung von AI (Built) und die Nutzung bestehender AI-Tools (Usage) haben.

Built-Side: Fokus auf Defensibility, Metriken und Compliance

Wer sich erfolgreich am Markt positionieren will, sollte Lösungen entwickeln, die sich nicht ohne Weiteres replizieren lassen. Dies kann durch Skalierung, die Nutzung proprietärer Daten oder durch Anpassungen der Modellarchitekturen und Machine Learning-Systeme erreicht werden.

AI-Unternehmen konnten durch die Skalierung von Datenmengen und Modellparametern in Verbindung mit cleveren technischen Kniffen bereits erstklassige Ergebnisse vorweisen. Die immensen Kosten beim Skalieren stellen jedoch eine hohe Eintrittshürde für Neueinsteiger dar, was wiederum zu einem Wettbewerbsvorteil für die bestehenden Player führt. Diese Unternehmen zielen aber vor allem auf Artificial General Intelligence (AGI) ab. Daher haben kleinere Startups die Möglichkeit, sich auf das Sammeln und Kuratieren von spezialisierten Datensätzen zu konzentrieren und hochwertige Branchen- oder Nischenlösungen anzubieten.

Neben Defensibility braucht es klare Metriken, um die Performance der eigenen AI-Lösung zu messen. Quality-Metriken geben Auskunft über Genauigkeit, Leistung, Robustheit und Fairness. Sie sind auch nützlich, um die eigene Lösung mittels Benchmarking mit anderen zu vergleichen. Ebenso braucht es Utility-Metriken, die den Wert von AI-Features im Produkt für den Endnutzer messen.

Schließlich sind mit Blick auf AI-Regulierungen solide Compliance-Frameworks erforderlich. Eines davon ist ISO 42001: Es umfasst Datennutzungsrechte, menschliche Aufsicht, Ethik, Explainability und Qualitätssicherung speziell für AI-Systeme. Zusätzlich decken etablierte Frameworks wie ISO27001 und SOC 2 Themen wie Sicherheit, Datenschutz, Stabilität und Verfügbarkeit ab. Durch diese Frameworks werden nicht nur rechtliche Vorgaben erfüllt, sie tragen auch dazu bei, Vertrauen bei Kunden aufzubauen und Risiken zu minimieren.

Usage-Side: AI-Tools verantwortungsvoll einsetzen

Bestehende AI-Tools sind sehr nützlich für Code-Reviews, Debuggen von Code oder wenn man Teile der Unit-Tests entwickelt. Ingenieure und Entwickler sollten sie bereits nutzen, um ihre Produktivität zu steigern. Zudem entwickeln Teams so ein erfahrungsbasiertes Verständnis für die Stärken und Schwächen der Systeme und wie sie sich mit der Zeit verbessern.

Die Anwendung kann aber auch Probleme mit sich bringen. Können Kundendaten aus Sicherheitsgründen nicht durch einen Drittanbieter verarbeitet werden? Hier hilft der Einsatz von Anonymisierungsregeln, um Risiken zu minimieren. Oder kann von AI generierter Code aus rechtlichen Gründen (z.B. geistigem Eigentum) nicht verwendet werden? Dann können Entwickler GenAI nutzen, um ihren eigenen Code bewerten zu lassen. Das gilt auch für Copywriting oder andere Anwendungsfälle. Der Einsatz von AI-Tools sollte also durch klare Nutzungsrichtlinien geregelt sein.

Um zusätzliches Vertrauen zu schaffen, sollten Startups bei der Auswahl von AI-Tools auf Zertifizierungen achten. Mitunter ist es zudem sinnvoll, firmenweit festzulegen, welche Tools genutzt werden dürfen, um den Überblick nicht zu verlieren.

Fazit: AI wird zum Muss

Aktuell sehen wir noch einige Einschränkungen bei GenAI. Hierzu zählen die begrenzte Fähigkeit zur räumlichen Argumentation und Berechnung, Limitierungen bei der Planung komplexer Aufgaben sowie Halluzinationen. Trotzdem hat GenAI seine Nützlichkeit unter Beweis gestellt und Investoren erwarten zunehmend AI-Kompetenz von Startups. Jedoch haben viele Unternehmen bekannte Best Practices zum Testen und Evaluieren ihrer LLM-Systeme noch nicht übernommen. Auch bei der Einführung von Sicherheitsmechanismen gibt es noch Verbesserungspotenzial.

Startups müssen auch bei schnellerer Time-to-Market und der kürzeren Lebensdauer von technologischen Entwicklungen innovativ sein, wenn sie sich am Markt behaupten wollen. Denn Muster und Tools verbessern sich ständig und frühere Lösungen sind schnell überholt. Dies ist die eigentliche Herausforderung: Neue Technologien verantwortungsvoll anzunehmen, ohne darauf zu warten, dass sie sich komplett etablieren.

Über den Author

David Asabina ist Associate Partner bei Philipps & Byrne, einem Tech Advisory-Unternehmen mit Sitz in Berlin und München mit Schwerpunkt auf Tech Due Diligence für Investoren sowie Health Checks und Wachstumsberatung für Gründer und Tech-Executives.

Über Philipps & Byrne

Philipps & Byrne steht für moderne Tech Advisory. Das Serviceangebot reicht von Due Diligence und Post-Merger-Integration für Investoren bis hin zu Health Checks und Wachstumsberatung für Gründer und Tech-Executives. Mit mehr als 15 Mrd. EUR an Guided Funding und mehr als 650 Transaktionen in über 25 Ländern unterstützt Philipps & Byrne das globale Tech-Ökosystem dabei, die Welt von morgen zu bauen.

Philipps & Byrne: https://philipps-byrne.com/
Kontakt: info@philipps-byrne.com

Fußnote

*AWS 2024: Unlocking Europe’s AI Potential in the Digital Decade

Erwähnte Profile
Startup Philipps & Byrne GmbH Logo
Startup Philipps & Byrne GmbH Logo
Philipps & Byrne GmbH
Tech Due Diligence und Tech Advisory für VCs und Startups
Flagge de
Berlin
Flagge de
Berlin
Folgen
Folgen
Ähnliche Artikel