Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Künstliche Intelligenz

Palantir verkündet "beispiellose" Nachfrage nach KI für den Kriegseinsatz
Erste Kunden sollen noch im Mai auf die Artificial Intelligence Platform zugreifen können. Diese hilft bei der Überwachung und soll Angriffspläne erstellen können

Es war nur eine Frage der Zeit, bis der Hype um generative KI die Rüstungsindustrie erreicht – und jemand auf die Idee kommt, ein System für den Kriegseinsatz zu präsentieren. Ende April war es dann so weit. Die Softwarefirma Palantir des US-Milliardärs Peter Thiel veröffentlichte ein Werbevideo für ihre neue Artificial Intelligence Platform (AIP). Diese soll bei der militärischen Überwachung helfen, eine Aufklärungsdrohne steuern und sogar verschiedene Angriffspläne erstellen können. Hauptaufgabe der Person hinter dem Computer wäre damit, das passende Stichwort parat zu halten und Entscheidungen freizugeben.

Das Interesse an dieser Kriegs-KI scheint groß zu sein, berichtet "Fortune". Eigenen Aussagen zufolge verzeichnet Palantir eine "beispiellose" Nachfrage, ausgewählte Kunden sollen noch in diesem Monat Zugriff auf eine erste Version der AIP erhalten. "Wenn Sie diese Technologien richtig und sicher einsetzen, haben Sie eine Waffe, mit der Sie gewinnen können und die Ihren Konkurrenten und Gegnern Angst macht", zitieren die Berichterstatter den Palantir-CEO Alex Karp zum Thema. In seinen 20 Jahren bei Palantir habe er noch nie eine so große Nachfrage gesehen, wie bei der AIP: "Wir reorganisieren unsere Bemühungen aggressiv, um daraus Kapital zu schlagen."

Gefahren generativer KI

 
Palantir verkündet "beispiellose" Nachfrage nach KI für den Kriegseinsatz
Erste Kunden sollen noch im Mai auf die Artificial Intelligence Platform zugreifen können. Diese hilft bei der Überwachung und soll Angriffspläne erstellen können

Es war nur eine Frage der Zeit, bis der Hype um generative KI die Rüstungsindustrie erreicht – und jemand auf die Idee kommt, ein System für den Kriegseinsatz zu präsentieren. Ende April war es dann so weit. Die Softwarefirma Palantir des US-Milliardärs Peter Thiel veröffentlichte ein Werbevideo für ihre neue Artificial Intelligence Platform (AIP). Diese soll bei der militärischen Überwachung helfen, eine Aufklärungsdrohne steuern und sogar verschiedene Angriffspläne erstellen können. Hauptaufgabe der Person hinter dem Computer wäre damit, das passende Stichwort parat zu halten und Entscheidungen freizugeben.

Das Interesse an dieser Kriegs-KI scheint groß zu sein, berichtet "Fortune". Eigenen Aussagen zufolge verzeichnet Palantir eine "beispiellose" Nachfrage, ausgewählte Kunden sollen noch in diesem Monat Zugriff auf eine erste Version der AIP erhalten. "Wenn Sie diese Technologien richtig und sicher einsetzen, haben Sie eine Waffe, mit der Sie gewinnen können und die Ihren Konkurrenten und Gegnern Angst macht", zitieren die Berichterstatter den Palantir-CEO Alex Karp zum Thema. In seinen 20 Jahren bei Palantir habe er noch nie eine so große Nachfrage gesehen, wie bei der AIP: "Wir reorganisieren unsere Bemühungen aggressiv, um daraus Kapital zu schlagen."

Gefahren generativer KI


Ich schwimme in deren Aktien. Gehen die mal pleite, muss ich anschaffen gehen.
 
Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.
 
Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.
 
Künstlich erzeugte Videos aus dem Jahr 2023 sind im Prinzip eine eigene Kunstform.
In 100 Jahren wird man sich diese Videos anschauen über die Motive des Autors sinnieren.
 
WHO warnt vor KI-Risiken im Gesundheitsbereich
Der Einsatz von künstlicher Intelligenz (KI) in der Medizin könnte aus Sicht der Weltgesundheitsorganisation (WHO) zu Behandlungsfehlern, Falschinformationen oder Datenmissbrauch führen. Die UNO-Behörde forderte gestern einen verantwortungsvollen Umgang mit neuen Technologien.

KI-Anwendungen wie ChatGPT, die auf riesige Datenmengen zugreifen, können etwa bei der Verbreitung von Gesundheitsinformationen oder der Erstellung von Diagnosen behilflich sein. Die WHO zeigte sich aber besorgt, dass die üblichen Vorsichtsmaßnahmen gegenüber neuen Technologien im Fall von KI nicht konsequent umgesetzt würden.

Große sprachbasierte KI-Modelle, die wie neuronale Netzwerke aufgebaut sind, erzeugen laut WHO scheinbar professionelle Antworten. „Diese Antworten können aber völlig falsch sein oder schwere Fehler enthalten, besonders wenn es um Gesundheit geht“, warnte die Organisation.

 
ChatGPT: Firmenchef spricht sich für KI-Regulierung aus
Der Chef des ChatGPT-Entwicklers OpenAI sieht das Risiko der Verbreitung von Falschinformationen mit Hilfe künstlicher Intelligenz (KI) – und hat sich für eine strikte Regulierung ausgesprochen. Allein schon wegen der benötigten erheblichen Ressourcen werde es nur wenige Unternehmen geben, die Vorreiter beim Training von KI-Modellen sein können, sagte Sam Altman gestern in einer Anhörung im US-Senat in Washington. Sie müssten unter strenger Aufsicht stehen. Altmans OpenAI löste mit ChatGPT sowie der Software, die Bilder auf Basis von Textbeschreibungen erzeugen kann, den aktuellen KI-Hype maßgeblich aus.

Falschinformationen schwer erkennbar
ChatGPT formuliert Texte, indem Wort um Wort die wahrscheinliche Fortsetzung eines Satzes eingeschätzt wird. Eine Folge dieses Verfahrens ist aktuell, dass die Software neben korrekten Angaben auch völlig falsche Informationen erfindet – für den Nutzer aber kein Unterschied erkennbar ist. Deswegen gibt es die Befürchtung, dass ihre Fähigkeiten zum Beispiel für die Produktion und Verbreitung von Falschinformationen genutzt werden könnten. Auch Altman äußerte in der Anhörung diese Sorge.

Altman schlug die Gründung einer neuen Regierungsbehörde vor, die KI-Modelle auf den Prüfstand stellen kann. Für künstliche Intelligenz solle eine Reihe von Sicherheitstests vorgesehen werden – etwa, ob sie sich eigenständig weiterverbreiten könnten. Unternehmen, die nicht vorgeschriebene Standards einhalten, solle die Lizenz entzogen werden. Die KI-Systeme sollen auch von unabhängigen Experten geprüft werden können.

Umwälzungen in der Arbeitswelt

 
Zurück
Oben