Tuesday, October 8, 2024
HomeTÄGLICHES UPDATEKI-Führungskräfte unterzeichnen einen offenen Brief, um die Gefahren der KI offen anzuerkennen

KI-Führungskräfte unterzeichnen einen offenen Brief, um die Gefahren der KI offen anzuerkennen

- Advertisement -
Sam Altman sagt über KI aus

Sam Altman sagt über KI aus.

Gewinnen Sie McNamee/Getty Images

Im März forderten Experten der Technologiebranche in einem offenen Brief, die Entwicklung fortschrittlicher KI-Modelle zu stoppen, aus Angst, die Technologie könnte ein „erhebliches Risiko für die Gesellschaft und die Menschheit“ darstellen.

Diese Woche versucht eine von OpenAI-CEO Sam Altman, dem „Paten“ der KI Geoffrey Hinton, und anderen mitunterzeichnete Erklärung, das Risiko zu verringern, das KI darstellt und die Menschheit zum Aussterben zu bringen. Das Vorwort der Erklärung ermutigt Branchenführer, die größten Bedrohungen der KI offen zu diskutieren.

Auch: So verwenden Sie ChatGPT zum Schreiben von Code

Der Aussage zufolge ist das Risiko der KI für die Menschheit so groß, dass es mit globalen Pandemien und einem Atomkrieg vergleichbar ist. Weitere Mitunterzeichner sind Forscher von Google DeepMind, Kevin Scott, Chief Technology Officer von Microsoft, und Bruce Schneier, ein Pionier der Internetsicherheit.

Die heutigen großen Sprachmodelle (LLMs), die durch Altmans ChatGPT populär gemacht wurden, können noch keine künstliche allgemeine Intelligenz (AGI) erreichen. Branchenführer sind jedoch besorgt darüber, dass LLMs so weit kommen. AGI ist ein Konzept, das ein künstlich intelligentes Wesen definiert, das der menschlichen Intelligenz gleichkommen oder diese übertreffen kann.

Auch: Wie funktioniert ChatGPT?

AGI ist eine Errungenschaft, die OpenAI, Google DeepMind und Anthropic eines Tages erreichen wollen. Aber jedes Unternehmen ist sich bewusst, dass es erhebliche Konsequenzen haben könnte, wenn seine Technologien AGI erreichen.

Altman sagte in seiner Aussage vor dem Kongress Anfang des Monats, dass seine größte Angst darin bestehe, dass KI „die Ursache“ sei[es] „Erheblicher Schaden für die Welt“ und dass dieser Schaden auf verschiedene Weise entstehen kann.

Nur ein paar Wochen zuvor war Hinton abrupt von seiner Position zurückgetreten, in der er bei Google an neuronalen Netzen gearbeitet hatte, und sagte CNN, er sei „nur ein Wissenschaftler, der plötzlich erkannte, dass diese Dinge schlauer werden als wir.“



source – www.zdnet.com

- Advertisement -
RELATED ARTICLES

Most Popular

Recent Comments