Instagram hat mit der Testphase eines neuen Features begonnen, das den Nutzer:innen erlaubt, ihre Profilbilder durch eine KI-gestützte Bildgenerierungsfunktion künstlerischer und stilisierter zu gestalten. Mit dieser Funktion können Nutzer:innen direkt im Bearbeitungsbildschirm ihres Profils auf Metas KI-Tools zugreifen und schnell sowie einfach ein KI-gestütztes Profilbild erstellen.
Doch diese Neuerung scheint im Widerspruch zu Metas früherem Vorgehen gegen KI-generierte Fake-Bilder und gefälschte Identitäten zu stehen. Dies führt zwangsläufig zu rechtlichen und ethischen Diskussionen.
KI-generierte Bilder und digitale Identität
Die Bildgenerierung durch Künstliche Intelligenz (KI) ermöglicht es insbesondere Nutzer:innen sozialer Medien, ihre digitale Identität auf kreativere und individuellere Weise auszudrücken. Im Folgenden einige Hauptaspekte:
Ästhetische Freiheit: Nutzer:innen können Profilbilder erstellen, die ihr Erscheinungsbild in der realen Welt erweitern oder völlig neu interpretieren. Zum Beispiel könnte sich jemand als Superheld darstellen: fliegend, mit Laserstrahlen aus den Augen wie Superman oder als nächtlicher Wächter der Stadt wie Batman.
Ebenso könnte ein Bild erstellt werden, in dem die Person mit Vincent van Gogh in den 1860er-Jahren malt. Solche kreativen Möglichkeiten eröffnen neue Wege der Selbstdarstellung und schaffen eine Plattform für künstlerische Freiheit.
Selbstbild und Identitätsgestaltung: KI-gestützte Bilder können ein Werkzeug sein, mit dem Menschen ihr Selbstbild verändern oder stärken können.
Allerdings besteht auch das Risiko, dass diese Technologie dazu führt, dass Personen ihr wahres Selbst ablehnen, was wiederum psychologische Probleme wie Depressionen oder Angstzustände hervorrufen könnte. (Hierzu sei gesagt: Die schönste Version einer Person ist immer die, die sie selbst ist.)
Risiken und missbräuchliche Nutzung
Neben den kreativen Möglichkeiten, die KI-generierte Bilder bieten, gibt es auch erhebliche Risiken, die diese Technologien mit sich bringen können:
Erstellung von Fake-Profilen und Identitätsdiebstahl: Mit KI-Technologie lassen sich realistische, aber vollkommen gefälschte Bilder erstellen. Dadurch wird es einfacher für böswillige Akteure, Fake-Profile zu erstellen.
Die meisten Nutzer:innen hinterfragen selten, ob ein Profilfoto mit KI generiert wurde. Dies könnte genutzt werden, um betrügerische oder manipulative Absichten zu verschleiern.
Zum Beispiel @fit_aitana, ein Influencer, der von einer in Spanien ansässigen Agentur erstellt wurde. Diese Person ist nicht echt, sondern vollständig mit künstlicher Intelligenz (KI) generiert. Wenn Sie sich das Profil auf Instagram ansehen, werden Sie kaum glauben, dass es sich um KI handelt. Es sieht so echt aus, dass es kaum als Fake erkennbar ist.
Manipulation und Desinformation: Wie im Beispiel von @fit_aitana können Accounts, die mit KI-generierten Bildern erstellt wurden, die Verbreitung falscher Informationen in sozialen Medien fördern. Ein solcher unechter Account könnte für politische oder wirtschaftliche Zwecke gefälschte Nachrichten oder Informationen verbreiten. Dieses Phänomen sehen wir besonders häufig auf Twitter – jetzt bekannt als X. Diese Accounts sind oft als „Troll-Accounts“ bekannt. Sie werden in der Regel genutzt, um bei politischen Ereignissen abzulenken oder durch gefälschte Nachrichten die öffentliche Agenda zu beeinflussen.
Auf sozialen Medienplattformen wie X – früher bekannt als Twitter – begegnen wir häufig sogenannten „Troll-Accounts“. Diese werden in der Regel aus böswilligen Absichten erstellt, um andere Nutzer:innen zu belästigen, zu manipulieren oder falsch zu informieren.
Solche Situationen machen die Verifizierungsprozesse auf Social-Media-Plattformen komplizierter und untergraben sowohl die Glaubwürdigkeit der Informationen als auch die der betreffenden Plattformen. Auf Plattformen wie X (ehemals Twitter) werden zwar häufiger „Tweets“ gepostet als Bilder, doch wenn Profilbilder realistisch wirken, nehmen wir oft an, dass die Person tatsächlich existiert. Infolgedessen könnten wir den von diesem Profil bereitgestellten Informationen vertrauen und unser Handeln darauf basieren.
Urheberrecht von Bildern: Wem gehört ein von Künstlicher Intelligenz (KI) generiertes Bild? Diese Frage ist äusserst wichtig, denn KI-Systeme sind lernende Systeme. Damit sie funktionieren, benötigen sie eine grosse Menge an Daten. Ein Mensch ohne Sehvermögen weiss beispielsweise nicht, wie die Sonne oder das Meer aussieht, doch eine KI „weiss“ dies, weil sie auf entsprechende Informationen zugreift.
Ein Beispiel: Wenn Sie eine KI bitten, ein Bild im Stil des berühmten Malers Picasso zu erstellen, nutzt die KI möglicherweise öffentlich zugängliche Bilder von Picasso, um ein ähnliches Werk zu erzeugen. Das Problem dabei ist: Bedeutet das Verwenden und Nachahmen bestehender Werke eine Urheberrechtsverletzung?
Das gleiche Problem tritt auf, wenn solche Technologien verwendet werden, um ein Fake-Profil zu erstellen. Das von der KI generierte neue Profilbild könnte einem echten Nutzer ähneln. In diesem Fall könnten Urheberrechtsfragen entstehen.
Zusammenfassend lässt sich sagen, dass Metas Massnahmen gegen Fake-Profile ein wichtiger Schritt waren, um die Sicherheit der Nutzer:innen zu erhöhen. Doch Neuerungen, die KI-generierte Profilbilder fördern, könnten diese Sicherheit gefährden. Damit widerspricht Meta nicht nur seinen eigenen Prinzipien, sondern setzt die Sicherheit der Nutzer:innen erheblich aufs Spiel. Aus rechtlicher und ethischer Perspektive ist es entscheidend, eine Balance zu finden. Doch dies ist eine schwierige Aufgabe. Meta und andere soziale Netzwerke müssen ihre Nutzer:innen umfassend schützen, insbesondere da auch Kinder soziale Medien nutzen. Es bleibt zu diskutieren, wie sicher solche Innovationen sein können.
DIE HIER VERFASSTEN ARTIKEL DIENEN DER INFORMATION UND GEBEN DIE MEINUNG DES AUTORS WIEDER. SIE STELLEN KEINE RECHTSBERATUNG DAR.
Comments