Center for Security and Emerging Technology
Datei:Center for Security and Emerging Technology.png | |
Formation | 2019 |
---|---|
Type | Think tank |
Purpose | Technology & security |
Headquarters | Washington, D.C., U.S. |
Founding Director | Jason Gaverick Matheny |
Executive Director | Dewey Murdick |
Parent organization | School of Foreign Service, Georgetown University |
Das Center for Security and Emerging Technology ('CSET) ist eine Denkfabrik, die sich der politischen Analyse an der Schnittstelle von nationaler und internationaler Sicherheit und neuen Technologien widmet und ihren Sitz an der School of Foreign Service der Georgetown University hat.
Seine Aufgabe ist es, die Auswirkungen neuer Technologien auf die Sicherheit zu untersuchen, indem es Daten analysiert, die akademische Arbeit im Bereich der Sicherheits- und Technologiestudien unterstützt und unparteiische Analysen für die politische Gemeinschaft bereitstellt. Das CSET konzentriert sich insbesondere auf die Überschneidung von Sicherheit und künstlicher Intelligenz (KI). Es befasst sich mit Themen wie nationale Wettbewerbsfähigkeit, Chancen im Zusammenhang mit KI, Talent- und Wissensströme, KI-Sicherheitsbewertungen und KI-Anwendungen in der Biotechnologie und Computersicherheit.
Der Gründungsdirektor des CSET, Jason Gaverick Matheny, war zuvor Direktor der Intelligence Advanced Research Projects Activity. Der derzeitige Direktor ist Dewey Murdick, ehemaliger Chief Analytics Officer und stellvertretender leitender Wissenschaftler im Ministerium für Innere Sicherheit.
Das im Januar 2019 gegründete CSET hat mehr als 57.000.000 US-Dollar an Fördermitteln vom Open Philanthropy Project, der William and Flora Hewlett Foundation und dem Public Interest Technology University Network erhalten. Das CSET ist wegen seiner Verbindungen zur Bewegung des effektiven Altruismus in die Kritik geraten.
Veröffentlichungen
Das CSET gibt einen zweiwöchentlichen Newsletter, policy.ai, heraus. Es hat Forschungsarbeiten zu verschiedenen Aspekten der Überschneidung von künstlicher Intelligenz und Sicherheit veröffentlicht, darunter Veränderungen bei den KI-Arbeitskräften in den USA, Auswirkungen der Einwanderungsgesetze auf den KI-Sektor und Technologietransfer ins Ausland. Zu den Forschungsergebnissen gehören politische Kurzdarstellungen und längere veröffentlichte Berichte.
In einer im Januar 2023 von CSET, OpenAI und dem Stanford Internet Observatory veröffentlichten Studie, über die Forbes berichtete, heißt es: "Es gibt auch mögliche negative Anwendungen von generativen Sprachmodellen, kurz ‚Sprachmodellen‘. Für böswillige Akteure, die Propaganda verbreiten wollen - Informationen, die darauf abzielen, die Wahrnehmung zu beeinflussen, um die Interessen eines Akteurs zu fördern -, bieten diese Sprachmodelle das Versprechen, die Erstellung überzeugender und irreführender Texte zu automatisieren, die für Einflussoperationen verwendet werden können, anstatt sich auf menschliche Arbeit verlassen zu müssen."
Im Mai 2023 kündigten chinesische Beamte an, dass sie den Zugang ausländischer Länder zu ihren öffentlichen Informationen aufgrund von Studien von Denkfabriken wie dem CSET teilweise sperren würden, da sie Bedenken hinsichtlich der Zusammenarbeit zwischen dem US-Militär und dem Privatsektor hätten.
In einer Aussage vom September 2024 vor dem United States House Select Committee on Strategic Competition between the United States and the Chinese Communist Party erklärte die ehemalige CSET-Mitarbeiterin Anna B. Puglisi an, dass sie von der BGI Group rechtliche Drohungen wegen Verleumdung für einen Bericht erhalten habe, den sie während ihrer Tätigkeit am CSET geschrieben habe, und dass ihr von der Georgetown University eine rechtliche Entschädigung für den Bericht verweigert worden sei. Nach der Aussage erklärte ein Vertreter der Georgetown University, dass sie "voll und ganz hinter dem Bericht steht" und "bereit ist, den Bericht und seine Autoren zu verteidigen, falls die Briefe zu formellen rechtlichen Schritten führen sollten."
Externe Links
- No URL found. Please specify a URL here or add one to Wikidata.