Центр изучения экзистенциального риска - Википедия - Centre for the Study of Existential Risk
Формирование | 2012 |
---|---|
Учредители | |
Цель | Изучение и уменьшение экзистенциального риска |
Штаб-квартира | Кембридж, Англия |
Головная организация | Кембриджский университет |
Интернет сайт | cser |
В Центр изучения экзистенциального риска (CSER) - исследовательский центр Кембриджский университет, предназначенные для изучения возможных угрозы уровня исчезновения созданный настоящими или будущими технологиями.[1] Соучредителями центра являются Хью Прайс (Бертран Рассел, профессор философии в Кембридже), Мартин Рис (Королевский астроном и бывший Президент Королевского общества ) и Яан Таллинн (соучредитель Skype ).[2]
Направления внимания
Управление экстремальными технологическими рисками
Риски связаны с появляющимися и будущими технологическими достижениями и воздействиями человеческой деятельности. Управление этими крайними технологическими рисками является неотложной задачей, но она создает особые трудности и сравнительно игнорируется в академических кругах.[3]
- Исследователи CSER разработали широко используемый инструмент для автоматического сканирования научной литературы на предмет новых исследований, касающихся глобального риска.[4]
- CSER провел две международные Кембриджские конференции по катастрофическим рискам.[5][6] Центр также консультировал по вопросам создания глобальных проектов по рискам в Австралийском национальном университете,[7] Калифорнийский университет в Лос-Анджелесе[8] и Уорикский университет.[9]
- CSER помог создать первую Всепартийную парламентскую группу по будущим поколениям в парламенте Соединенного Королевства, что принесло политическим лидерам Великобритании глобальный риск и долгосрочное мышление.[10]
- CSER провел более тридцати семинаров с участием представителей академических кругов, политиков и промышленности по таким темам, как кибербезопасность, ядерная безопасность, изменение климата и генные движения.[11]
- Публичные лекции CSER были просмотрены в Интернете более 100 000 раз.[12]
Глобальные катастрофические биологические риски
- В 2017 году CSER собрал политиков и ученых для определения проблем, стоящих перед Конвенция о биологическом оружии (КБО). Ключевой выявленной проблемой было то, что быстрые темпы прогресса в соответствующих науках и технологиях очень затрудняли отслеживание руководящих органов, включая КБО.[13]
- Исследователи CSER провели обзор 20 новых проблем биологической инженерии с привлечением 30 европейских и американских экспертов.[14] Они представили документ на Совещании государств-участников КБО в 2017 г.[15] и в Научно-консультативном совете Организации по запрещению химического оружия в 2018 году.[16]
Экстремальные риски и глобальная окружающая среда
- Мартин Рис и Партха Дасгупта, старший советник, совместно с Ватиканом организовал серию влиятельных семинаров. Семинар 2015 года оказал влияние на Папскую энциклику об изменении климата,[17] что, в свою очередь, повлияло на Парижское соглашение об изменении климата. Результаты семинара 2017 года скоро будут опубликованы в виде книги по биологическому вымиранию.[18]
- Исследователи CSER опубликовали на потеря биоразнообразия и управление в природе,[19] воздействие на окружающую среду высокопродуктивного земледелия[20] и перспективы геоинжиниринга.[21]
- Исследователи CSER опубликовали отчет с призывом включить в рейтинги бизнес-школ вопросы устойчивости.[22] Четыре дня спустя Financial Times объявила о «полном обзоре нашей методологии».[23]
Риски от продвинутого искусственного интеллекта
- В 2015 году CSER помог организовать конференцию по будущим направлениям ИИ в Пуэрто-Рико, в результате чего Открытое письмо об искусственном интеллекте подписан лидерами исследований во всем мире с призывом к исследованиям для обеспечения безопасности и полезности систем ИИ для общества.[24]
- В 2016 году CSER запустил свой первый спин-офф: Leverhulme Centre for the Future of Intelligence (CFI). CFI под руководством профессора Прайса фокусируется на возможностях и проблемах, которые создает ИИ.[25]
- С 2017 года CSER организовал серию научных конференций, объединяющих теорию принятия решений и безопасность искусственного интеллекта.[26]
- В 2018 году совместно с партнерами из технологических компаний и аналитических центров по безопасности CSER опубликовал Злонамеренное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий, о влиянии ИИ на физическую и кибербезопасность.[27] Они также опубликовали Гонка ИИ: риторика и риски, который выиграл первый приз за лучшую работу на конкурсе 2018 г. AAAI /ACM Конференция AI Ethics and Society.[28]
Освещение в СМИ
CSER был освещен во многих различных газетах (особенно в Соединенном Королевстве),[29][30][31] в основном охватывает разные интересующие темы. CSER был профилирован на передней обложке Wired,[32] и в специальном Франкенштейн выпуск Наука в 2018 году.[33]
Советники
Консультанты CSER включают таких кембриджских ученых, как:
- сэр Партха Дасгупта (Экономика), обладатель премии Blue Planet Prize
- Профессор Сьюзан Оуэнс (География)
- Профессор Билл Сазерленд (Зоология)
- Профессор Джейн Хил (Философия).
И такие советники, как:
- Герман Хаузер (Основатель Желудь Компьютеры и РУКА )
- Дэвид Кливли (Эксперт по телекоммуникациям и предприниматель Silicon Fen)
- Илон Маск (Тесла и SpaceX )
- Георгия (Биотехнология)
- Питер Сингер (Философия)
- Стюарт Дж. Рассел (Искусственный интеллект)
- Макс Тегмарк (Космология).[34]
Смотрите также
- Бюллетень ученых-атомщиков
- Инициатива по ядерной угрозе
- Центр безопасности здоровья Джона Хопкинса
- Глобальные катастрофические риски
- Институт будущего человечества
- Институт будущего жизни
- Leverhulme Centre for the Future of Intelligence
- Научно-исследовательский институт машинного интеллекта
Рекомендации
- ^ Биба, Эрин (1 июня 2015 г.). «Познакомьтесь с соучредителем аналитического центра Apocalypse». Scientific American. 312 (6): 26. Дои:10.1038 / scientificamerican0615-26. PMID 26336680.
- ^ Льюси, Фред (25 ноября 2012 г.). «Последнее изобретение человечества и наше неопределенное будущее». Новости исследований. Получено 24 декабря 2012.
- ^ «Управление экстремальными технологическими рисками».
- ^ "Сеть исследования экзистенциальных рисков | Сеть исследований X-рисков | www.x-risk.net".
- ^ «Кембриджская конференция по катастрофическим рискам 2016».
- ^ «Кембриджская конференция по катастрофическим рискам 2018».
- ^ «Последние новости | Люди за выживание».
- ^ "Институт наук о рисках Б. Джона Гаррика".
- ^ «Исследователи PAIS получают престижное финансирование в Леверхалме».
- ^ "AppG-future-gens".
- ^ "События".
- ^ "CSER Cambridge". YouTube. Получено 6 апреля 2019.
- ^ «Конвенция о биологическом оружии: что дальше?».
- ^ Винтл, Бонни С.; Boehm, Christian R .; Родос, Кэтрин; Моллой, Дженнифер С .; Миллет, Пирс; Адам, Лаура; Брейтлинг, Райнер; Карлсон, Роб; Касагранде, Рокко; Дандо, Малькольм; Даблдей, Роберт; Дрекслер, Эрик; Эдвардс, Бретт; Эллис, Том; Эванс, Николас Г .; Хаммонд, Ричард; Хазелофф, Джим; Каль, Линда; Куикен, Тодд; Личман, Бенджамин Р .; Matthewman, Colette A .; Napier, Johnathan A .; Óhéigeartaigh, Seán S .; Покровитель, Никола Дж .; Перелло, Эдвард; Шапира, Филипп; Тейт, Джойс; Такано, Эрико; Сазерленд, Уильям Дж. (2017). «Трансатлантический взгляд на 20 возникающих проблем биологической инженерии». eLife. 6. Дои:10.7554 / eLife.30247. ЧВК 5685469. PMID 29132504.
- ^ "Пресс-конференция BWC".
- ^ «Поговорите с Организацией по запрещению химического оружия».
- ^ Калифорнийский университет (24 сентября 2015 г.). "Место для парковки" Папе Римскому ". Получено 6 апреля 2019 - через YouTube.
- ^ Дасгупта, Партха; Ворон, Питер; Макайвор, Анна, ред. (2019). Биологическое вымирание под редакцией Парта Дасгупта. Дои:10.1017/9781108668675. ISBN 9781108668675.
- ^ Амано, Тацуя; Секели, Тамаш; Сандель, Броуди; Надь, Сабольч; Мундкур, Тэдж; Лангендоэн, Том; Бланко, Даниэль; Soykan, Candan U .; Сазерленд, Уильям Дж. (2017). «Успешное сохранение глобальных популяций водоплавающих птиц зависит от эффективного управления». Природа. 553 (7687): 199–202. Дои:10.1038 / природа25139. PMID 29258291.
- ^ Балмфорд, Эндрю; Амано, Тацуя; Бартлетт, Харриет; Чедвик, Дэйв; Коллинз, Адриан; Эдвардс, Дэвид; Филд, Роб; Гарнсуорси, Филип; Грин, Рис; Смит, Пит; Уотерс, Хелен; Уитмор, Эндрю; Веник, Дональд М .; Чара, Джулиан; Финч, Том; Гарнетт, Эмма; Гаторн-Харди, Альфред; Эрнандес-Медрано, Хуан; Эрреро, Марио; Хуа, Фанъюань; Латавец, Агнешка; Миссельбрук, Том; Фалан, Бен; Симмонс, Бенно I .; Такахаши, Таро; Воуз, Джеймс; Зу Эрмгассен, Эразмус; Эйснер, Роуэн (2018). «Экологические издержки и преимущества высокопродуктивного земледелия». Экологическая устойчивость. 1 (9): 477–485. Дои:10.1038 / s41893-018-0138-5. ЧВК 6237269. PMID 30450426.
- ^ Карри, Адриан (2018). «Геоинженерная напряженность» (PDF). Фьючерсы. 102: 78–88. Дои:10.1016 / j.futures.2018.02.002.
- ^ «Рейтинг бизнес-школ 21 века».
- ^ «По мере того, как бизнес-школы переосмысливают то, что они делают, FT - тоже». 2019-01-27.
- ^ Макмиллан, Роберт (16 января 2015 г.). «ИИ пришел, и это действительно беспокоит самые яркие умы мира». Проводной. Получено 24 апреля 2015.
- ^ "Leverhulme Center for the Future of Intelligence".
- ^ «Решение и AI».
- ^ вредоносныйaireport.com
- ^ «Премия за лучшую работу - Конференция Aies».
- ^ Коннор, Стив (14 сентября 2013 г.). "Сможем ли мы выжить?". The New Zealand Herald.
- ^ «Освещение CSER в СМИ». Центр изучения экзистенциального риска. Архивировано из оригинал 30 июня 2014 г.. Получено 19 июн 2014.
- ^ «Последнее изобретение человечества и наше неопределенное будущее». Новости исследований Кембриджского университета. 2012-11-25.
- ^ Бенсон, Ричард (12 февраля 2017 г.). «Познакомьтесь со Стражами Земли, реальными мужчинами и женщинами Икс, спасающими нас от экзистенциальных угроз». Проводная Великобритания.
- ^ Купфершмидт, Кай (2018-01-12). «Укрощение монстров завтрашнего дня». Наука. 359 (6372): 152–155. Bibcode:2018Научный ... 359..152K. Дои:10.1126 / science.359.6372.152. PMID 29326256.
- ^ "Команда".