Технологическая сингулярность и культура
Здравствуйте, Гость ( Вход | Регистрация )
Технологическая сингулярность и культура
Dmitry Ivashintsov |
May 16 2006, 12:45 AM
Отправлено
#1
|
Участник Группа: Club Members Сообщений: 43 Пол: Male |
Дмитрий Ивашинцов
Технологическая сингулярность и культура Опубликовано в Философском журнале Phenomen.Ru 16.05.2006. Прямая ссылка: http://phenomen.ru/public/journal.php?article=34 Публикация: Дмитрий Ивашинцов |
turchin |
Mar 23 2007, 05:06 PM
Отправлено
#2
|
Участник Группа: Users Сообщений: 10 |
приветсвую возможность размещения статьи в журнале.
Кроме того, закончил перевод ещё одной статьи: Э.Юдковский Искусственный интеллект как позитивный и негативный фактор глобального риска. Eliezer Yudkowsky Artificial Intelligence as a Positive and Negative Factor in Global Risk Выходит в 2007 году в сборнике Риски глобальной катастрофы под редакцией Ника Бострома и Милана Цирковича, Оксфорд. Перевод: Алексей Валерьевич Турчин. (avturchin@mail.ru) Разрешено некоммерческое использование перевода. Док файл с форматированием: www.avturchin.narod.ru/ai.doc Текстовая версия: http://www.proza.ru/texts/2007/03/22-285.html Оригинал: http://www.singinst.org/reading/corereading/ Forthcoming in Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic Draft of August 31, 2006 Eliezer Yudkowsky (yudkowsky@singinst.org) Singularity Institute for Artificial Intelligence Palo Alto, CA Введение. (1) До сих пор основной опасностью искусственного интеллекта (ИИ) было то, что люди слишком рано делали вывод, что они его понимают. Разумеется, эта проблема не ограничена ИИ. Jacques Monod пишет: «забавным аспектом теории эволюции является то, что каждый думает, что понимает её». (Monod, 1974.) Мой отец, физик, жаловался на людей, придумывавших свои собственные физические теории: «интересно знать, почему люди не придумывают свои собственные теории химии?» (Но они делают.) Тем не менее, проблема является особенно актуальной в области ИИ. Область ИИ имеет репутацию того, что она даёт огромные обещания и не исполняет их. Большинство наблюдателей считают, что ИИ труден, и это на самом деле так. Но запутанность не происходит из трудности. Трудно сделать звезду из водорода, но звездная астрофизика не имеет ужасающей репутации обещать сделать звезду и затем не смочь. Критическим выводом является не то, что ИИ труден, а то, что, по неким причинам, людям очень легко думать, что они знают об Искусственном Интеллекте гораздо больше, чем на самом деле. В моей другой статье о рисках глобальной катастрофы «Систематические ошибки мышления, потенциально влияющие на суждения о глобальных рисках», я начинаю с замечания, что немногие люди предпочли бы нарочно уничтожить мир; сценарий же уничтожения Земли по ошибке кажется мне очень беспокоящим. Немногие люди нажмут кнопку, которая, как они точно знают, вызовет глобальную катастрофу. Но если люди склонны быть абсолютно уверены, что кнопка делает нечто, совершенно отличное от её реального действия, это действительно причина для тревоги. Гораздо труднее писать о глобальных рисках искусственного интеллекта, чем о систематических ошибках мышления. Ошибки мышления – это твёрдо установленное знание; достаточно процитировать литературу. ИИ – это не твёрдо установленное знание; ИИ относится к передовым исследованиям, а не к учебникам. И, по причинам, объясняющимся в следующей главе, проблема глобальных рисков в связи с искусственным интеллектом фактически не обсуждается в существующей технической литературе. далее по ссылкам Док файл с форматированием: www.avturchin.narod.ru/ai.doc Текстовая версия: http://www.proza.ru/texts/2007/03/22-285.html |
turchin |
Apr 4 2007, 02:46 PM
Отправлено
#3
|
Участник Группа: Users Сообщений: 10 |
перевёл ещё одну статью:
УГРОЗЫ СУЩЕСТВОВАНИЮ. Анализ сценариев человеческого вымирания и связанных опасностей. Ник Бостром. Existential Risks Analyzing Human Extinction Scenarios and Related Hazards Nick Bostrom, PhD Faculty of Philosophy, Oxford University www.nickbostrom.com [Published in the Journal of Evolution and Technology, Vol. 9, March 2002. First version: 2001] Перевод: Алексей Валерьевич Турчин (avturchin’mail.ru) Разрешено некоммерческое использование перевода. Текстовая версия: http://www.proza.ru/texts/2007/04/04-210.html Док-файл: http://avturchin.narod.ru/ExistentialRisks.doc Краткое содержание. ABSTRACT По причине ускорения технологического прогресса, человечество, возможно, быстро приближается к критической точке в своём развитии. В дополнение к хорошо известным угрозам, вроде ядерного холокоста, перспективы быстро развивающихся технологий, таких как наносистемы и машинный интеллект, преподносят нам беспрецедентные возможности и риски. Наше будущее, и то, будет ли у нас вообще будущее, зависит от того, как мы справимся с этими вызовами. В связи с быстро развивающимися технологиями, нам нужно лучшее понимание динамики перехода от человеческого к «пост-человеческому» обществу. Особенно важно знать, где расположены ловушки: пути, на которых всё может пойти смертельно неправильно. Хотя мы имеем большой опыт подверженности различным личным, местным или переносимым (endurable) всемирным опасностям, эта статья анализирует недавно появившуюся категорию: рисков существованию (existential risks). Это – риски, которые могут привести к нашему вымиранию или повредить потенциал развившейся на Земле разумной жизни. Некоторые из этих опасностей относительно известны, тогда как другие совершенно не замечаются. Риски существованию имеют ряд черт, которые делают обычное управление рисками неэффективным. Последняя глава этой статьи обсуждает некоторые этические и политические приложения. Более ясное понимание картины угроз позволит нам сформулировать лучшие стратегии. 1. Ведение. Жить опасно, и риски находятся везде. К счастью, не все риски одинаково серьёзны. Для наших целей мы можем использовать три измерения для описания величины рисков: масштаб, интенсивность и вероятность. Под «масштабом» я имею в виду размер группы людей, подверженных риску. Под «интенсивностью» я имею в виду то, насколько большой вред будет причинён каждому индивидууму из группы. И под «вероятностью» я имею в виду наилучшую текущую субъективную оценку вероятности негативного исхода. (прим. 1) 1.1 Типология рисков. Мы можем различить 6 качественно различных групп рисков в зависимости от их масштаба и интенсивности (таб.1). Далее по ссылкам: Текстовая версия: http://www.proza.ru/texts/2007/04/04-210.html Док-файл: http://avturchin.narod.ru/ExistentialRisks.doc |
Текстовая версия | Сейчас: 28th March 2024 - 01:26 PM |