IPB

Здравствуйте, Гость ( Вход | Регистрация )

[ Каскадный ] · Стандартный · Линейный

> Технологическая сингулярность и культура

Dmitry Ivashintsov
post May 16 2006, 12:45 AM
Отправлено #1


Участник
**

Группа: Club Members
Сообщений: 43

Пол: Male



Дмитрий Ивашинцов
Технологическая сингулярность и культура
Опубликовано в Философском журнале Phenomen.Ru 16.05.2006.
Прямая ссылка: http://phenomen.ru/public/journal.php?article=34

Публикация: Дмитрий Ивашинцов
User is offlineProfile CardPM
Go to the top of the page
+Quote Post
 
Reply to this topicStart new topicStart Poll
Ответов
turchin
post Mar 23 2007, 05:06 PM
Отправлено #2


Участник
**

Группа: Users
Сообщений: 10




приветсвую возможность размещения статьи в журнале.

Кроме того, закончил перевод ещё одной статьи:

Э.Юдковский
Искусственный интеллект как позитивный и негативный фактор глобального риска.

Eliezer Yudkowsky
Artificial Intelligence as a Positive and Negative Factor in Global Risk
Выходит в 2007 году в сборнике Риски глобальной катастрофы под редакцией Ника Бострома и Милана Цирковича, Оксфорд.

Перевод: Алексей Валерьевич Турчин. (avturchin@mail.ru)
Разрешено некоммерческое использование перевода.

Док файл с форматированием:
www.avturchin.narod.ru/ai.doc

Текстовая версия:
http://www.proza.ru/texts/2007/03/22-285.html

Оригинал: http://www.singinst.org/reading/corereading/

Forthcoming in Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic
Draft of August 31, 2006
Eliezer Yudkowsky
(yudkowsky@singinst.org)
Singularity Institute for Artificial Intelligence
Palo Alto, CA



Введение. (1)



До сих пор основной опасностью искусственного интеллекта (ИИ) было то, что люди слишком рано делали вывод, что они его понимают. Разумеется, эта проблема не ограничена ИИ. Jacques Monod пишет: «забавным аспектом теории эволюции является то, что каждый думает, что понимает её». (Monod, 1974.) Мой отец, физик, жаловался на людей, придумывавших свои собственные физические теории: «интересно знать, почему люди не придумывают свои собственные теории химии?» (Но они делают.) Тем не менее, проблема является особенно актуальной в области ИИ. Область ИИ имеет репутацию того, что она даёт огромные обещания и не исполняет их. Большинство наблюдателей считают, что ИИ труден, и это на самом деле так. Но запутанность не происходит из трудности. Трудно сделать звезду из водорода, но звездная астрофизика не имеет ужасающей репутации обещать сделать звезду и затем не смочь. Критическим выводом является не то, что ИИ труден, а то, что, по неким причинам, людям очень легко думать, что они знают об Искусственном Интеллекте гораздо больше, чем на самом деле.


В моей другой статье о рисках глобальной катастрофы «Систематические ошибки мышления, потенциально влияющие на суждения о глобальных рисках», я начинаю с замечания, что немногие люди предпочли бы нарочно уничтожить мир; сценарий же уничтожения Земли по ошибке кажется мне очень беспокоящим. Немногие люди нажмут кнопку, которая, как они точно знают, вызовет глобальную катастрофу. Но если люди склонны быть абсолютно уверены, что кнопка делает нечто, совершенно отличное от её реального действия, это действительно причина для тревоги.

Гораздо труднее писать о глобальных рисках искусственного интеллекта, чем о систематических ошибках мышления. Ошибки мышления – это твёрдо установленное знание; достаточно процитировать литературу. ИИ – это не твёрдо установленное знание; ИИ относится к передовым исследованиям, а не к учебникам. И, по причинам, объясняющимся в следующей главе, проблема глобальных рисков в связи с искусственным интеллектом фактически не обсуждается в существующей технической литературе.


далее по ссылкам

Док файл с форматированием:
www.avturchin.narod.ru/ai.doc

Текстовая версия:
http://www.proza.ru/texts/2007/03/22-285.html
User is offlineProfile CardPM
Go to the top of the page
+Quote Post
turchin
post Apr 4 2007, 02:46 PM
Отправлено #3


Участник
**

Группа: Users
Сообщений: 10




перевёл ещё одну статью:

УГРОЗЫ СУЩЕСТВОВАНИЮ.
Анализ сценариев человеческого вымирания и связанных опасностей.

Ник Бостром.


Existential Risks
Analyzing Human Extinction Scenarios and Related Hazards


Nick Bostrom, PhD
Faculty of Philosophy, Oxford University
www.nickbostrom.com
[Published in the Journal of Evolution and Technology, Vol. 9, March 2002. First version: 2001]

Перевод: Алексей Валерьевич Турчин (avturchin’mail.ru)
Разрешено некоммерческое использование перевода.

Текстовая версия:
http://www.proza.ru/texts/2007/04/04-210.html

Док-файл:
http://avturchin.narod.ru/ExistentialRisks.doc



Краткое содержание.

ABSTRACT

По причине ускорения технологического прогресса, человечество, возможно, быстро приближается к критической точке в своём развитии. В дополнение к хорошо известным угрозам, вроде ядерного холокоста, перспективы быстро развивающихся технологий, таких как наносистемы и машинный интеллект, преподносят нам беспрецедентные возможности и риски. Наше будущее, и то, будет ли у нас вообще будущее, зависит от того, как мы справимся с этими вызовами. В связи с быстро развивающимися технологиями, нам нужно лучшее понимание динамики перехода от человеческого к «пост-человеческому» обществу. Особенно важно знать, где расположены ловушки: пути, на которых всё может пойти смертельно неправильно. Хотя мы имеем большой опыт подверженности различным личным, местным или переносимым (endurable) всемирным опасностям, эта статья анализирует недавно появившуюся категорию: рисков существованию (existential risks). Это – риски, которые могут привести к нашему вымиранию или повредить потенциал развившейся на Земле разумной жизни. Некоторые из этих опасностей относительно известны, тогда как другие совершенно не замечаются. Риски существованию имеют ряд черт, которые делают обычное управление рисками неэффективным. Последняя глава этой статьи обсуждает некоторые этические и политические приложения. Более ясное понимание картины угроз позволит нам сформулировать лучшие стратегии.


1. Ведение.


Жить опасно, и риски находятся везде. К счастью, не все риски одинаково серьёзны. Для наших целей мы можем использовать три измерения для описания величины рисков: масштаб, интенсивность и вероятность. Под «масштабом» я имею в виду размер группы людей, подверженных риску. Под «интенсивностью» я имею в виду то, насколько большой вред будет причинён каждому индивидууму из группы. И под «вероятностью» я имею в виду наилучшую текущую субъективную оценку вероятности негативного исхода. (прим. 1)

1.1 Типология рисков.


Мы можем различить 6 качественно различных групп рисков в зависимости от их масштаба и интенсивности (таб.1).


Далее по ссылкам:

Текстовая версия:
http://www.proza.ru/texts/2007/04/04-210.html

Док-файл:
http://avturchin.narod.ru/ExistentialRisks.doc

User is offlineProfile CardPM
Go to the top of the page
+Quote Post

Posts in this topic
Dmitry Ivashintsov   Технологическая сингулярность и культура   May 16 2006, 12:45 AM
Людмила   Как можно создать интеллект, разрешающий задачи...   May 22 2006, 07:31 AM
Dmitry Ivashintsov   Уважаемая Людмила! Трудно даже вообразить како...   May 31 2006, 12:08 AM
Людмила   Не воображайте, а попробуйте заключить в форму...   Jun 1 2006, 09:39 PM
Dmitry Ivashintsov   Я говорил не о самих чувствах, а о том, что их пор...   Jun 2 2006, 09:51 PM
Людмила   Давайте разберемся с чувствами, включая и высший...   Jun 3 2006, 08:45 AM
Евгений Волков   Уважаемый Дмитрий. в своей критике втупительной р...   Jul 2 2006, 10:23 PM
Dmitry Ivashintsov   Уважаемый Евгений! Мое замечание Алтынбеку со...   Jul 4 2006, 12:13 AM
Евгений Волков   Уважаемый Дмитрий! Не хочу вдаваться в основы ...   Jul 4 2006, 10:38 PM
Dmitry Ivashintsov   Уважаемый Евгений! Ваша убежденность в том, чт...   Jul 6 2006, 04:49 PM
Евгений Волков   Уважаемый Дмитрий! Если, я правильно Вас поним...   Jul 6 2006, 10:52 PM
turchin   Уважаемые коллеги! я выполнил перевод статьи,...   Mar 9 2007, 04:20 PM
Dmitry Ivashintsov   Уважаемый Алексей Валериевич! Возможно открыть...   Mar 10 2007, 01:40 AM
turchin   К сожалению, мои права пользователя не позволяю...   Mar 11 2007, 12:28 AM
turchin   в журнале - это где - на сайте в другом разделе?...   Mar 11 2007, 12:30 AM
Dmitry Ivashintsov   Могу поместить Вашу статью в журнале. Объем обычн...   Mar 14 2007, 06:29 PM
turchin   приветсвую возможность размещения статьи в журнале...   Mar 23 2007, 05:06 PM
turchin   перевёл ещё одну статью: УГРОЗЫ СУЩЕСТВОВАНИЮ. Ан...   Apr 4 2007, 02:46 PM
turchin   ещё перевёл: Насколько невероятна катастрофа судн...   Apr 11 2007, 10:20 PM
turchin   ещё перевод Ник Бостром. http://www.anthropic-p...   Apr 13 2007, 04:14 AM


Reply to this topicTopic OptionsStart new topic
 

Текстовая версия Сейчас: 28th March 2024 - 01:26 PM
Реклама: