Future of Life Institute

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Dieser Artikel wurde zur Löschung vorgeschlagen.

Falls du Autor des Artikels bist, lies dir bitte durch, was ein Löschantrag bedeutet, und entferne diesen Hinweis nicht.
Zur Löschdiskussion

Begründung: Propaganda-Schrift in eigener Sache. Ein relevanter Einfluss der Vereinigung auf die Debatte über Risiken bzw. deren Verminderung wird nicht nachgewiesen. z.B. [6] erwähnt Future of Life gar nicht; [7] erwähnt nur Max Tegmark (und nicht die FLI); [8] ist die Webseite einer FLI-geführten Kampagne. Das Anliegen ist äußerst ehrenwert, aber die gute Absicht erzeugt keine Relevanz. Auch nicht das name dropping ("Elon Musk"). -- WMS.Nemo (Diskussion) 16:01, 4. Sep. 2024 (CEST)

Future of Life Institute
(FLI)
Rechtsform Gemeinnützige Organisation (501(c)(3) nonprofit)
Gründung März 2014
Gründer Jaan Tallinn, Dr. Meia Chita-Tegmark, Max Tegmark, Anthony Aguirre
Sitz Campbell, Vereinigte Staaten; Brüssel, Belgien
Zweck Verringerung von existenziellen Risiken insbesondere der Risiken, die von fortgeschrittener künstlicher Intelligenz (KI) ausgehen
Vorsitz Max Tegmark
Geschäftsführung Anthony Aguirre
Website Futureoflife.org

Das Future of Life Institute (FLI, Institut für die Zukunft des Lebens) ist eine unabhängige gemeinnützige Organisation mit physischen Büros in Brüssel, Belgien, und in Campbell, USA. Die Ziele vom FLI sind zweigeteilt:

  1. Verringerung von existenziellen Risiken, welche die Menschheit bedrohen, insbesondere der Risiken, die von künstlicher Intelligenz (KI) ausgehen; und
  2. Entwicklung positiver Zukunftsvisionen, welche durch transformative Technologie ermöglicht werden.[1][2]

Die Arbeit des FLI umfasst unter anderem die Vergabe von Fördermitteln, Bildungsarbeit und Interessenvertretung bei den Vereinten Nationen, der Regierung der Vereinigten Staaten und den Institutionen der Europäischen Union.

Das FLI wurde im März 2014 von Max Tegmark, Kosmologe am MIT, Jaan Tallinn, Mitbegründer von Skype, Viktoriya Krakovna, Forscherin bei DeepMind, Meia Chita-Tegmark, Postdoctoral Research Fellow an der Tufts University, und Anthony Aguirre, Physiker an der UCSC, gegründet.

Zu den Beratern des Instituts gehören unter anderem der Informatiker Stuart Russell, der Biologe George Church, der Kosmologe Saul Perlmutter, der Physiker Frank Wilczek, der Unternehmer Elon Musk sowie Alan Alda und Morgan Freeman.[3][4][5]

Interessenvertretung

[Bearbeiten | Quelltext bearbeiten]

Das FLI trägt aktiv zu globalen und regionalen Debatten über KI Politik bei.

In Europa hat sich das FLI beispielsweise erfolgreich dafür eingesetzt, dass Allzweck KI-Systeme wie GPT-4 in die EU-Verordnung über künstliche Intelligenz aufgenommen werden.[6]

im Oktober 2023 lud der Mehrheitsführer im US-Senat, Chuck Schumer, das FLI dazu ein, seine Ansichten zur KI-Regulierung mit ausgewählten Senatoren zu teilen.[7]

Das FLI setzt sich zusammen mit anderen Organisationen aktiv für die Verbote von nicht einvernehmlich Deepfakes[8][9] und tödlichen autonomen Waffen[10] ein.

Vergabe von Forschungszuschüssen

[Bearbeiten | Quelltext bearbeiten]

2015 startete FLI das erste peer-reviewte Zuschussprogramm, das sicherstellen sollte, dass künstliche Intelligenz (KI) sicher, ethisch vertretbar und nutzbringend bleibt. In der ersten Runde vergab FLI 6,5 Millionen US-Dollar an 37 Forscher.[11]

Das zweite FLI-Förderprogramm zur Sicherheit von KI fand 2018 statt.[12] In den Jahren 2021, 2022 und 2023 richtete das FLI ein neues Stipendienprogramm für Doktoranden[13] und Postdoktoranden[14] ein, das von dem russisch-kanadischen Programmierer Vitalik Buterin[15] finanziert wurde.

Das FLI-Förderprogram von 2022 fokussierte sich auf Forschungsprojekte, welche das wissenschaftliche Verständnis der Folgen eines Atomkriegs zu vertiefen.[16]

Im Jahr 2024 veröffentlichte das FLI einen Aufruf zur Einreichung von Forschungsvorschlägen, welche analysiere, wie sich künstliche Intelligenz in naher Zukunft auf die Ziele für nachhaltige Entwicklung (SDGs) in Bezug auf Armut, Gesundheitsversorgung, Energie und Klimawandel auswirken wird.[17]

Im selben Jahr veröffentlichte das FLI einen weiteren Aufruf zur Einreichung von Forschungsvorschlägen mit dem Ziel, vertrauenswürdige Mechanismen oder Institutionen für eine globale Governance zu entwerfen, die dazu beitragen können, eine Zukunft mit keinem, einem oder mehreren Projekten allgemeiner künstlicher Intelligenz zu stabilisieren.[18]

Weiterhin has das FLI in 2024 bis zu 4 Mio. USD zur Verfügung gestellt, um Projekte zu unterstützen, die daran arbeiten, die Gefahren der KI-gesteuerter Machtkonzentration zu verringern.[19]

Konferenzen & Events

[Bearbeiten | Quelltext bearbeiten]

Am 24. Mai 2014 veranstaltete das FLI am MIT eine Diskussion über die Zukunft der Technologie (The Future of Technology: Benefits and Risks), die von Alan Alda[20][21] moderiert wurde. Die Teilnehmer waren George Church (Biologe), Ting Wu (Genetiker), Andrew McAfee (Wirtschaftswissenschaftler), Frank Wilczek (Physiker) und Jaan Tallinn[22]. Die Diskussion umfasste eine Vielzahl von Themen, von der Zukunft der Biotechnologie bis hin zur Ethik der künstlichen Intelligenz und der Singularität.[23]

Vom 2. bis 5. Januar 2015 organisierte und veranstaltete das FLI die Konferenz „The Future of AI: Opportunities and Challenges“ (Die Zukunft der KI: Chancen und Herausforderungen), deren Ziel es war, die vielversprechendsten Forschungsrichtungen zu identifizieren, um die Vorteile der KI zu nutzen[24][25]. Während der Konferenz ließ das Institut einen offenen Brief über künstliche Intelligenz zirkulieren, der später von Stephen Hawking, Elon Musk und vielen anderen Experten unterzeichnet wurde, darunter 100 führende Persönlichkeiten aus der Welt der KI[26].

2017 organisierte das FLI die Asilomar Conference on Beneficial AI in Kalifornien,[27] eine private Zusammenkunft, die von der New York Times als „die großen Namen der KI“ bezeichnet wurde (darunter Yann LeCun, Elon Musk und Nick Bostrom). Das Institut veröffentlichte eine Reihe von Grundsätzen für die verantwortungsvolle Entwicklung von KI, die aus den Diskussionen auf der Konferenz hervorgegangen waren und von Yoshua Bengio, Yann LeCun und vielen anderen KI-Forschern unterzeichnet wurden.[28]

Im Jahr 2019 hat das FLI die Beneficial AGI Conference in Puerto Rico[29] abgehalten, mit dem Ziel, langfristige Fragen zu beantworten, um sicherzustellen, dass fortgeschrittene künstliche Intelligenz der Menschheit helfen wird.[30]

Der jährliche „Future of Life“-Preis ehrt Menschen, die zum Zeitpunkt ihrer Leistungen keine große Anerkennung genossen haben, aber signifikant dazu beigetragen haben, die Welt zu verbessern.[31]

Bisherige Preisen wurde verliehen an:

Offener Brief zu tödlichen autonomen Waffen

[Bearbeiten | Quelltext bearbeiten]

2018 verfasste das FLI einen Brief, in dem die Verabschiedung von „Gesetzen gegen tödliche autonome Waffen“ gefordert wurde. Zu den Unterzeichnern gehörten Elon Musk, Demis Hassabis, Shane Legg und Mustafa Suleyman.[39]

Offener Brief: Gigantische KI Experimente pausieren

[Bearbeiten | Quelltext bearbeiten]

Im März 2023 veröffentlichte FLI einen offenen Brief, in dem eine Pause bei der Entwicklung von KI-Systemen gefordert wurde, die leistungsfähiger als GPT-4 sind-[40]

Offener Brief an die führenden Politiker der Welt

[Bearbeiten | Quelltext bearbeiten]

2024 veröffentlichte Max Tegmark, Präsident des FLI, zusammen mit Mary Robinson, Präsidentin der NGO Global Elders, einen Brief in Le Monde, in dem er die führenden Politiker der Welt dazu aufforderte, angesichts der existenziellen Bedrohungen dringend Maßnahmen zu ergreifen.[41][42]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Stephen Hawking, Max Tegmark, Stuart Russell: Transcending Complacency on Superintelligent Machines. Huffington Post, 19. April 2014, abgerufen am 26. Juni 2014 (englisch).
  2. A new existential risk reduction organisation has launched in Cambridge, Massachusetts. In: cser.ac.uk. Abgerufen am 26. August 2024 (englisch).
  3. But What Would the End of Humanity Mean for Me? The Atlantic, 9. Mai 2014, abgerufen am 11. Juni 2014 (englisch).
  4. Who we are. Future of Life Institute, abgerufen am 11. Juni 2014 (englisch).
  5. Our science-fiction apocalypse: Meet the scientists trying to predict the end of the world. In: salon.com. Abgerufen am 8. Oktober 2014 (englisch).
  6. Tambiama Madiega: General-purpose artificial intelligence - At a Glance. In: europarl.europa.eu. European Parliamentary Research Service, 30. März 2023, abgerufen am 13. September 2024 (englisch).
  7. Chuck Schumer, Mike Rounds, Martin Heinrich, Todd Young: Driving U.S. Innovation in Artificial Intelligence - A roadmap for artificial intelligence policy in the United States Senate. (PDF) Senate Majority Leader Chuck Schumer, Mai 2024, abgerufen am 13. September 2024 (englisch).
  8. Bans on deepfakes take us only so far—here’s what we really need. In: technologyreview.com. Abgerufen am 13. September 2024 (englisch).
  9. More Than 300 International Experts Release Open Letter Demanding Government Leaders Take Immediate Action to Combat Deepfake Threats. In: prnewswire.com. Abgerufen am 13. September 2024 (englisch).
  10. Slaughterbots. In: Wikipedia. 14. August 2024 (wikipedia.org [abgerufen am 26. August 2024]).
  11. 2015 AI Safety Grant Program. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  12. 2018 AGI Safety Grant Program. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  13. PhD Fellowships. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  14. Postdoctoral Fellowships. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  15. Brendan Bordelon: The little-known AI group that got $660 million. Politico, 26. März 2024, abgerufen am 13. September 2024 (englisch).
  16. Nuclear War Research. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  17. Call for proposals evaluating the impact of AI on Poverty, Health, Energy and Climate SDGs. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  18. Call for proposed designs for global institutions governing AI. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  19. How to mitigate AI-driven power concentration. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  20. Angela Chen: Is Artificial Intelligence a Threat? The Chronicle of Higher Education, abgerufen am 11. September 2014.
  21. Events work. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  22. Future of Humanity Institute. In: fhi.ox.ac.uk. 20. Mai 2014, abgerufen am 26. August 2024 (britisches Englisch).
  23. Top 23 One-Liners from a Panel Discussion that Gave Me a Crazy Idea. In: Diana Crow. 29. Mai 2014, abgerufen am 26. August 2024 (amerikanisches Englisch).
  24. AI safety conference in Puerto Rico. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  25. Future of Humanity Institute. In: fhi.ox.ac.uk. 20. Januar 2015, abgerufen am 13. September 2024 (britisches Englisch).
  26. Stuart Russell, Tom Dietterich, Eric Horvitz, Bart Selman, Francesca Rossi, Demis Hassabis, Shane Legg, Mustafa Suleyman, Dileep George, Scott Phoenix: Letter to the Editor: Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter. In: AI Magazine. Band 36, Nr. 4, 31. Dezember 2015, ISSN 2371-9621, S. 3–4, doi:10.1609/aimag.v36i4.2621 (aaai.org [abgerufen am 13. September 2024]).
  27. Beneficial AI 2017. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  28. Asilomar AI Principles. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  29. Beneficial AGI 2019. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  30. CSER at the Beneficial AGI 2019 Conference. In: cser.ac.uk. Abgerufen am 26. August 2024 (englisch).
  31. Future of Life Award. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  32. Arkhipov Family awarded Future of Life Award. In: cser.ac.uk. Abgerufen am 13. September 2024 (englisch).
  33. Future Of Life Award 2018. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  34. Future Of Life Award 2019. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  35. Future Of Life Award 2020. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  36. Future Of Life Award 2021. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  37. Professor Stenchikov honored with 2022 Future of Life Award for pioneering nuclear war research. In: kaust.edu.sa. Abgerufen am 13. September 2024 (englisch).
  38. Future Of Life Award 2023. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
  39. Cameron Jenkins: AI Innovators Take Pledge Against Autonomous Killer Weapons. In: npr.org. 18. Juli 2018, abgerufen am 26. August 2024.
  40. James Vincent: Elon Musk and top AI researchers call for pause on ‘giant AI experiments’. In: theverge.com. 29. März 2023, abgerufen am 13. September 2024 (englisch).
  41. Rebecca Speare-Cole: Former world leaders join call for ‘long-view leadership’ of existential threats. The Independent, 15. Februar 2024, abgerufen am 13. September 2024 (englisch).
  42. Beatrice Nolan: Richard Branson and Oppenheimer's grandson among those warning about future AI risks. In: businessinsider.com. Abgerufen am 13. September 2024 (amerikanisches Englisch).
Abgerufen von „Future of Life Institute11