Nur einen Tag nach der Einführung der ChatGPT-App für iOS wurde bekannt, dass Apple die Verwendung dieses Chatbots und anderer KI-Tools für einige seiner Mitarbeiter eingeschränkt hat. Das Technologieunternehmen hat diese Maßnahme ergriffen, angetrieben von den gleichen Bedenken, die dazu geführt haben, dass Länder wie Italien, Deutschland und Spanien Untersuchungen über die Verwendung von privaten Daten, auf die diese Tools wie das von OpenAI erstellte Zugriff haben, eingeleitet haben.
Laut einem Dokument, das The Wall Street Journal überprüft hat, entwickelt Apple seine eigene Technologie, ähnlich der, die ChatGPT antreibt, ein Forschungs- und Entwicklungsprojekt, das seine Dienste wie Siri stärken würde, aber derzeit noch vertraulich ist und vor der Konkurrenz geschützt werden muss. Dies wäre der Hauptgrund, warum der Chatbot von OpenAI sowie Copilot von GitHub, im Besitz von Microsoft, in den Apple-Büros eingeschränkt wurde.
Während Copilot darauf trainiert wurde, Computercodes aus Text zu generieren, kann ChatGPT diese Aufgabe ausführen, zusätzlich zu Schreiben als Mensch in verschiedenen Stilen und über verschiedene Themen. Sogar seine neueste multimodale Version erkennt Bilder und erstellt Inhalte basierend auf ihnen.
Jedoch hat diese technologische Revolution, die weltweit mit dem schnellen Wachstum der sogenannten generativen künstlichen Intelligenz erlebt wird, einen wichtigen kommerziellen Wettbewerb ausgelöst. Alle großen Unternehmen wollen an diesem aufstrebenden Markt teilnehmen, sogar jene, die vor seinem potenziellen Risiko warnen, wie Elon Musk. Und folglich entstehen Bedenken über die möglichen negativen Konsequenzen.
Datennutzung
Unter den Risiken, die dieser Technologie zugeschrieben werden, ist der Mangel an Datenschutz eines davon. Italien war das erste Land, das eine entschiedene Maßnahme ergriff, indem es die Nutzung von ChatGPT nach einem Datenleck der Nutzer verbot. Die Plattform von Open AI wird wegen möglicher Verletzung des europäischen Datenschutzgesetzes, GDPR, untersucht.
Wenn Menschen diese Chatbots betreten, um zu plaudern oder Hilfe bei einem Essay oder einer Arbeit zu suchen, schreiben einige ihre E-Mails mit diesen KI-Modellen, die Daten aus dem Gespräch werden wiederverwendet, um das natürliche Sprachmodell, auf dem sie basieren, weiter zu trainieren. Das besagte Datenleck enthüllte die Titel des Chat-Verlaufs einiger Nutzer.
Als Reaktion auf diese wachsende Besorgnis hat OpenAI kürzlich einen Inkognito-Modus ähnlich dem von Google’s Suchmaschine erstellt. Diese Funktion ermöglicht es dem Nutzer, seinen Chat-Verlauf zu trennen. Auf diese Weise wird das, was mit dem Chatbot gesprochen wird, nicht verwendet, um ihn zu trainieren und seine Leistung zu verbessern.
Dennoch wäre diese Maßnahme für Regierungen oder große Unternehmen wie Apple mit strengen Sicherheitsmaßnahmen zum Schutz des Zugangs zu ihren geheimsten Innovationsprojekten nicht ausreichend. Es ist nicht das einzige Unternehmen, das sein Personal aufgefordert hat, die Verwendung dieser Konkurrenztools zu vermeiden, wie Amazon, das ebenfalls über eigene ähnliche KI-Dienste verfügt.
Kommerzieller Wettbewerb
Obwohl ChatGPT zum bekanntesten Chatbot der Welt geworden ist, steht er nicht allein auf diesem wachsenden Markt. Microsoft verfügt mit Bing über eine Internetsuchmaschine, die ebenfalls von der OpenAI-Technologie, dem Modell GPT-4, gespeist wird. Insbesondere hat Microsoft den kommerziellen Kampf des Jahres zusammen mit Google und seinem Chatbot Bard geführt, das Ergebnis der umfangreichen Erfahrung des Internetriesen in der Entwicklung künstlicher Intelligenz, der sich bisher nicht getraut hatte, es der breiten Öffentlichkeit zugänglich zu machen.
Nach diesem Ausbruch haben sich andere Marken wie Apple dem Rennen angeschlossen. Der iPhone-Hersteller stellte 2018 John Giannandrea, einen ehemaligen Google-Mitarbeiter, ein, um seine Bemühungen in diesem Bereich zu leiten. Die Sprachfertigkeit dieser KI-Modelle würde die Nutzung virtueller Assistenten wie Siri fördern, die bereits die Technologie in der Beta-Version von tvOS 16.4 testet.
Tim Cook, CEO von Apple, hat sich für das Potenzial dieser Technologie interessiert, ohne eine vorsichtige Haltung gegenüber den möglichen Risiken, wie der Erstellung von Fake News, auszuschließen. “Es gibt eine Reihe von Problemen, die gelöst werden müssen, aber das Potenzial ist sicherlich sehr interessant”.
Apple hat sogar Anwendungen blockiert, die in seinem App Store beworben wurden, weil sie ChatGPT enthielten, insbesondere die E-Mail-App BlueMail, mit der Begründung, dass diese neue Funktion unangemessene Inhalte für Kinder anzeigen könnte. Das Unternehmen von Cook forderte den Ersteller der Anwendung auf, das empfohlene Mindestalter auf 17 Jahre zu erhöhen.
No Responses