GitHub Copilot: Der Programmierassistent im Überblick

Neben den genannten Problemen mit unpassenden Vorschlägen oder ausbaufähiger Syntax gibt es auch Diskussionen um die grundsätzliche Fehleranfälligkeit der Codes, die aktuell mit GitHub Copilot entstehen oder in Zukunft entstehen könnten. Da die Basis, durch die die KI lernen soll, häufig fehlerhaft oder zumindest ungeprüft ist, ist auch das Endergebnis zu oft unsicher. Zwar wird darauf hingewiesen, dass sämtlicher Input, den die KI liefert, nachgeprüft werden soll; ob dadurch allerdings auf lange Sicht ein tatsächlicher Vorteil für die tägliche Arbeit entstehen kann, ist so zumindest fraglich. In bisherigen Tests schnitt der Code von GitHub Copilot häufig schlecht ab.

Einige Entwickler befürchten auch, dass die Nutzung von Copilot im Git möglicherweise zu Copyright-Verletzungen führen könnte, sollte die KI einfach ganze Code-Blöcke übernehmen. Zwar gibt es unterschiedliche Fair-Use-Regelungen; ob die Lernerfolge einer KI darunter fallen, ist allerdings zumindest umstritten. Das gilt umso mehr, wenn GitHub Copilot in Zukunft auch noch für kommerzielle Zwecke genutzt werden könnte. Das Unternehmen selbst erklärt dazu, dass bereits jetzt nur wenige Quellcodes ganz oder teilweise unverändert übernommen werden. Mit größeren Lernerfolgen soll dieser Wert noch weiter sinken.

Updated: 11. April 2022 — 15:55

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie mehr darüber, wie Ihre Kommentardaten verarbeitet werden .