Поиск

Полнотекстовый поиск:
Где искать:
везде
только в названии
только в тексте
Выводить:
описание
слова в тексте
только заголовок

Рекомендуем ознакомиться

'Анализ'
Подводя итоги воспитательной работы за 2009\2010 учебный год, следует отметить, что педагогический коллектив школы стремился успешно реализовать наме...полностью>>
'Статья'
Статья посвящена проблеме образования в России первой половины XIX века. Используя метод сравнительного историко-философского анализа, раскрывается с...полностью>>
'Документ'
«Интегрированные модели, мягкие вычисления, вероятностные системы и комплексы программ в искусственном интеллекте» (ИММВИИ-2009)г. Коломна, 26–27 мая...полностью>>
'Программа'
Вечерняя программа «Шарм ночного Будапешта»: набережная Корзо и фешенебельная улица Вацы. Здесь Пешт нарядный и очень праздничный даже в будни! Сюда ...полностью>>

Главная > Сборник статей

Сохрани ссылку в одной из сетей:

ПРОБЛЕМЫ ПРЕДОТВРАЩЕНИЯ ГЛОБАЛЬНЫХ РИСКОВ, УГРОЖАЮЩИХ СУЩЕСТВОВАНИЮ ЧЕЛОВЕЧЕСКОЙ ЦИВИЛИЗАЦИИ

Сборник статей

Под редакцией Валерии Прайд, И.В. Следзевского, А.В. Турчина.

ЧЕРНОВИК

Проект

Российского Трансгуманистического Движения.

Москва 2010

СЕРИЯ «ДИАЛОГИ О БУДУЩЕМ», т.3

Contents

Contents 2

Билл Джой. Почему мы не нужны будущему. 5

Вернор Виндж. Технологическая Сингулярность 32

Ник Бостром. Угрозы существованию: Анализ сценариев человеческого вымирания и других подобных опасностей. 42

Введение 42

1. Типология рисков 43

2. Риски существованию 43

3. Уникальность проблемы угроз существованию 44

4. Классификация рисков существованию 46

5. Взрывы (Bangs) 46

6. Сужения (Crunches) 51

7. Скрипы (Shrieks) 52

8. Всхлипы 54

9. Определение величины вероятности рисков существованию 55

10. Рекомендации, касающиеся стратегии и этики 60

Выражения признательности 65

Приложение: очерк эволюционного «всхлипа» 65

Библиография 67

Елиезер Юдковски. Когнитивные искажения, потенциально влияющие на оценку глобальных рисков. 74

Введение 74

1. Доступность информации 75

2. Интеллектуальная ошибка, связанная со знанием «задним числом». (Hindsight bias) 76

3. Черные лебеди. (Black Swans) 77

4. Ошибки в ситуациях с логическим «И» 78

5. Ошибочность рассуждений, вызванная эффектом подтверждения (Confirmation bias) 81

6. Якорение, настройка и наложение (Anchoring, adjustment, and contamination). 84

7. Рассуждения, обусловленные аффектом. 86

8. Пренебрежение масштабом 87

9. Калибровка и сверхуверенность 88

10. Апатия прохожего 91

Последнее предупреждение 92

Заключение 93

Рекомендуемое чтение 95

Библиография 96

Eлиезер Юдковски. Искусственный интеллект как позитивный и негативный фактор глобального риска. 103

Ник Бостром, Макс Тегмарк. Насколько невероятна катастрофа судного дня? 151

Ник Бостром. Рассуждение о Конце Света для начинающих. 158

Ник Бостром. Doomsday Argument жив и брыкается. 162

Ник Бостром. А не живем ли мы в «Матрице»? Доказательство методом моделирования 173

Дэвид Брин. Сингулярность и кошмары. 180

Роберт Фрейтас. Проблема Серой Слизи. 202

Милан Чиркович, Ричард Каткарт. Гео-инженерия, пошедшая насмарку: новое частное решение парадокса Ферми. 230

Милан Чирокович. Эволюционные катастрофы и проблема точной настройки параметров пригодной для жизни планеты. (Проблема Голдилокс) 245

Алексей Турчин. Природные катастрофы и антропный принцип 260

Contents 260

Введение 263

1. Антропный принцип. Эффект наблюдательной селекции. Результаты Бострома и Тегмарка. 264

2. Природные катастрофы 272

3. Применение антропного принципа для анализа частоты природных катастроф. 276

4. Нарушение устойчивости природных систем, находящихся на грани равновесия, в связи с человеческой деятельностью 286

5. Заключение 288

Литература: 290

Владислав Пустынский. Последствия падения на Землю крупных астероидов 292

Уильям Нейпьер. Опасность комет и астероидов 302

1. Нечто вроде огромной горы 302

2.Как часто по нам бьют? 303

3. Эффекты столкновения. 308

4. Роль пыли. 311

5. Наземная проверка? 313

6. Неопределённости 314

Майкл Рампино. Супервулканизм и другие катастрофические геофизические процессы. 318

3. Вулканическая зима. 321

5. Сверх-извержения и человеческая популяция. 326

6. Частота сверхизвержений. 327

7. Влияние сверхизвержения на цивилизацию. 328

Арнон Дар. Влияние сверхновых, гамма-всплесков, солнечных вспышек и космических лучей на земную окружающую среду. 340

Ричард Керригэн. Следует ли обеззараживать сигналы SETI? 362

А.В. Турчин. Глобальные риски, связанные с программой SETI. 376

Эдриан Кент. Критический обзор оценок рисков глобальных катастроф. 396

А. А. Кононов. Идеологические начала общей теории неуничтожимости человечества 422

Угрозы уничтожения человечества 422

Неуничтожимость как главная сверхзадача цивилизации 423

Качества неуничтожимой цивилизации 426

О необходимости разработки теоретических основ решения задач неуничтожимости человечества 427

«Проблемы предотвращения глобальных рисков, угрожающих существованию человеческой цивилизации».

Предисловие. А.В. Турчин. представление авторов.

  1. Бостром. Анализ сценариев вымирания.

  2. Юдковски. Когнитивные искажения

  3. Юдковски. Искусственный интеллект как фактор глобального риска

  4. Макс Тегмарк и Ник Бостром. Насколько невероятна катастрофа судного дня?

  5. Бостром. Doomsday argument жив и брыкается.

  6. Бостром. «Рассуждение о Конце света для начинающих»

  7. Дэвид Брин. Сингулярность и кошмары.

  8. Р.Фрейтас. Проблема Серой Слизи.

  9. CRN. Опасности молекулярного производства.

  10. Милан Чиркович, Ричард Каткарт. Гео-инженерия, пошедшая насмарку: новое частное решение парадокса Ферми.

  11. Чиркович. Про антропный принцип статья.-

  12. Р. керригэн. Следует ли обеззараживать сигналы SETI?

  13. А. Турчин. О возможных рисках программы SETI.

  14. Эдриан Кент. Критический обзор оценок рисков глобальных катастроф.

  15. А. Кононов. Задача неуничтожимости человечества.

  16. Пустынский. Падение астероидов.

  17. Турчин. Природные катастрофы и антропный принцип

Плюс надо добавить:

Билл Джой

Бостром – матрица

Арнон дар

Нейпер

  1. Д. Медведев. Роль трансгуманизма как иделологичекой основы для предотвращения глобальных рисков

  2. Даша Халтурина –демография и Мальтус??

  3. Г. Малинецкий -???

  4. Неклесса. ???

  5. И.В. Следзевский - неопределённость???

  6. В. ПрайдСоциальные методы управления рисками

  7. Турчин Проблема создания убежищ.

  8. А.Л. Зайцев. Обоснования безопасности программы METI. ???

  9. О.В. Иващенко. Изменение климата и изменение циклов обращения парниковых газов в системе атмосфера-литосфера-гидросфера - обратные связи могут значительно усилить парниковый эффект.

  10. А.В.Карнаухов. К вопросу об устойчивости химического баланса атмосферы и теплового баланса Земли.

Турчин. От экономического кризиса к глобальной катастрофе: три возможных маршрута будущего.

Перевести Robin Hansen article “Catastrophe, a social collapse and human extinction”

Билл Джой. Почему мы не нужны будущему.

Опубликовано на русском в журнале «Компьютерра» в 2001г.

От переводчика:

Автором статьи, первоначально опубликованной в журнале “Wired”1, является Билл Джой - заведующий научной частью и сооснователь американской компьютерной компании "Sun Microsystems". Билл Джой - человек-легенда, один из отцов BSD Unix, разработчик программ csh и vi ("азбука" для каждого специалиста по Unix). Джой сыграл в истории Java одну из главных ролей, оставаясь зачастую за сценой. Работал в самом центре команды BSD Unix; усовершенствовав протокол TCP/IP для работы на Ethernet, а не только на 50 кбит/сек линиях Arpanet, Билл Джой сделал возможным появление Internet. Компьютеры Sun с работающей на них системой BSD Unix оказались наиболее надёжными кораблями для TCP/IP, существенная доля всех хост-компьютеров для Web по-прежнему являются машинами от Sun.

Перевод: Илья Осипов <ilja_osipov@>

Оригинал на сайте “Wired”: "Why the future doesn't need us", Bill Joy

Наши наиболее могущественные технологии 21-го века - робототехника, генная инженерия и нанотехнология2 - угрожают подвергнуть человеческий род опасности.

Нравственные измерения новых технологий беспокоили меня с того момента, как я стал заниматься их созданием, но только осенью 1998-го года я с тревогой понял, насколько велики опасности, с которыми мы столкнёмся в 21-м веке. Я могу датировать начало моей тревоги днём, когда я встретил Рэя Курцвейла (Ray Kurzweil), заслуженно прославленного изобретателя первой читающей машины для слепых и многих других удивительных вещей.

Я и Рэй оба были докладчиками на конференции Telecosm Джорджа Гилдера3, и я встретил его случайно в гостиничном баре после того, как окончились наши заседания. Я сидел с Джоном Сирлом4 , философом из Беркли, работавшим над изучением сознания. Пока мы беседовали, подошёл Рэй и завязался разговор, предмет которого преследует меня по сей день.

Я пропустил разговор Рэя и упустил тему разговора, а они теперь начали как раз там, где остановились. Рэй говорил о том, что темп улучшения технологии собирается ускоряться и что мы собираемся стать роботами, слиться с роботами или что-то наподобие, а Джон возражал, говорил, что этого не может случиться, поскольку роботы не могут быть сознательными.

Пока я слышал такие толки раньше, я всегда полагал, что чувствующие роботы относятся к сфере научной фантастики. Но теперь от некоторых уважаемых мною людей я услышал веский аргумент в пользу того, что такие роботы являются делом близкого будущего. Я был ошеломлён, особенно если учесть подтверждённую способность Рэя воображать и создавать будущее. Я уже знал, что новые технологии, вроде генной инженерии и нанотехнологии, дают нам власть переделать мир, но реалистичный и близкий сценарий создания разумных роботов поразил меня.

От таких открытий можно превратиться в клячу. Мы едва ли не каждый день слышим в новостях про тот или иной технический или научный успех. Но это было совершенно неординарное предсказание. В гостиничном баре Рэй дал мне часть своей готовящейся к выходу в свет книги "Век духовных машин"1. Эта книга намечает в общих чертах утопию, которую он предвидит - утопию, в которой люди, "смертные", достигают почти бессмертия путём становления единым целым с робототехнической технологией. От чтения данной книги моё чувство тревоги только усилилось; я был уверен, что он преуменьшал опасности, преуменьшал вероятность плохого исхода при следовании по этой тропе.

Больше всего меня обеспокоил отрывок, подробно описывающий антиутопический сценарий:

Вызов нового луддита2

«Сперва давайте примем без доказательства, что компьютерщики преуспеют в совершенствовании разумных машин, которые всё смогут делать лучше, чем люди. В этом случае, по-видимому, вся работа будет делаться многочисленными высокоорганизованными системами машин и не нужны будут никакие людские усилия. Может произойти одно из двух. Либо машинам может быть разрешено делать всё, что они сочтут нужным, без человеческого за ними присмотра, либо человеческий контроль над машинами может быть сохранён.

Если машинам дана полная свобода в осуществлении их собственных решений, то невозможно сказать, к чему это приведёт, поскольку невозможно угадать, как такие машины могут себя вести. Мы только укажем, что гибель рода человеческого была бы во власти машин. Будет ли человечество когда-нибудь столь безрассудно, что передаст всю власть машинам, или же никогда не будет - спорный вопрос. Но мы не намекаем ни на то, что человечество добровольно передаст власть машинам, ни на то, что машины умышленно захватят власть. На что мы намекаем - так это на то, что человечество легко может позволить себе скатиться до положения такой зависимости от машин, что уже не будет никакого практического выбора, кроме как полного принятия всех машинных решений. В то время как общество и проблемы, с которыми оно сталкивается, будут становиться всё более и более сложными и всё более и более интеллектуальными будут становиться машины, люди будут позволять машинам принимать за них больше решений, просто потому, что решения, выработанные машинами, будут приводить к лучшим результатам, чем решения, принятые людьми. В конце концов может быть достигнута ступень, когда решения, необходимые для поддержания системы в рабочем состоянии, будут такими сложными, что люди будут неспособны к разумной выработке этих решений. На этой ступени фактически распоряжаться будут машины. Люди просто не смогут выключить машины, потому что они будут столь зависимы от них, что их выключение равнялось бы самоубийству.

С другой стороны, возможно, что человеческий контроль над машинами может быть сохранён. В этом случае средний человек может управлять некоторыми своими личными машинами, такими, как автомобиль или персональный компьютер, но контроль над крупными системами машин будет в руках крохотной элиты - совсем как сейчас, но с двумя различиями. Благодаря усовершенствованной технике элита будет иметь больший контроль над массами, а поскольку человеческий труд будет больше не нужен, массы будут излишними, бесполезным бременем для системы. Если элита безжалостна, она может просто принять решение истребить людскую массу. Если же она гуманна, то она может использовать пропаганду или иные психологические или биологические способы для сокращения уровня рождаемости, до тех пор, пока людская масса не вымрет, освободив мир для элиты. Или, если элита состоит из мягкосердечных либералов, она может решить сыграть роль доброго пастыря для остального человечества. Они будут присматривать, чтобы физические потребности каждого были удовлетворены, чтобы все дети воспитывались в психологически здоровых условиях, чтобы каждый человек не бездельничал, а имел полезное занятие по душе и чтобы всякий, кто мог стать недовольным, подвергался "лечению" для того, чтобы исцелить его "трудный случай". Конечно, жизнь будет настолько бесцельной, что людей придётся биологически или психологически перестроить: либо устранить их потребность в процессе власти1, либо заставить их "сублимировать" своё побуждение к власти в некоторое безобидное хобби. Эти спроектированные люди могут быть счастливы в таком обществе, но они совершенно определённо не будут свободны. Они будут приведены к статусу домашних животных2

В книге, пока вы не перевернете страницу, вы не обнаружите, что автором этого отрывка является Теодор Качински – Унабомбер1. Я не апологет Качински. В течение 17-летней кампании террора его бомбы убили троих людей и многих поранили. Одна из его бомб тяжело поранила моего друга Дэвида Гелернтера, одного из самых выдающихся компьютерщиков и провидцев нашего времени. Подобно многим моим коллегам, я чувствовал, что следующей мишенью Унабомбера запросто мог быть я.

Качински действовал кровожадно и, по моему мнению, невменяемо. Он несомненно является луддитом, но простое указание этого факта не отклоняет его аргументацию; как ни тяжело мне было это сознавать, я видел некоторое достоинство в рассуждениях, изложенных в этом единственном отрывке. Я чувствовал необходимость противостоять им.

Антиутопическое предвидение Качински описывает непреднамеренные последствия пресловутой проблемы проектирования технологии и её использования, а также проблемы, которая имеет очевидное отношение к закону Мэрфи - "Всё, что может сломаться, сломается". (Фактически это закон Жулика2, который сам по себе показывает, что Жулик был прав.) Наше чрезмерное использование антибиотиков привело к тому, что до сих пор является, быть может, наибольшей такой проблемой: появление бактерий, устойчивых к антибиотикам и гораздо более опасных. Нечто подобное произошло, когда попытки ликвидировать малярийных комаров с использованием ДДТ вызвали у них устойчивость к этому препарату; более того, малярийные паразиты приобрели гены мультимедикаментозной устойчивости3.

Причина многих таких неожиданностей кажется понятной: задействованные системы сложны, они включают в себя взаимодействие и обратные связи между множеством частей. Всякие изменения такой системы будут каскадно ниспадать путями, которые трудно предсказать; это особенно верно, когда задействована человеческая деятельность.

Я начал показывать друзьям цитату Качински из книги "Век духовных машин"; я обычно вручал им курцвейловскую книгу, давал им прочитать цитату, а потом наблюдал их реакцию, когда они обнаруживали, кто её написал. Приблизительно в то же время я нашёл книгу Ганса Моравека "Робот: просто машина для превосходящего разума"1. Моравек является одним из лидеров исследований в робототехнике и основателем крупнейшей в мире робототехнической исследовательской программы при университете Карнеги Меллона. "Робот" дал мне больше материала для проб на моих друзьях - материала, удивительно подкрепляющего аргументацию Качински. Например:



Скачать документ

Похожие документы:

  1. Нло как фактор глобального риска Алексей Турчин

    Документ
    В этой книге рассмотрены глобальные риски – то есть риски, могущие привести к полному вымиранию человечества, – связанные с проблемой НЛО. Хотя автор на 90 процентов уверен, что за НЛО не стоит некого принципиально нового феномена,
  2. Глобальные проблемы человечества

    Документ
        По ходу развития цивилизации перед человечеством неоднократно возникали сложные проблемы, порою и планетарного характера. Но все же это была далекая предыстория, своего рода “инкубационный период” современных глобальных проблем.
  3. А. В. Турчин структура глобальной катастрофы

    Реферат
    Завидую Прусту. Упиваясь прошлым, он опирался на весьма прочную основу: вполне надежное настоящее и неоспоримое будущее. Но для нас прошлое стало прошлым вдвойне, время вдвойне утрачено, потому что вместе со временем мы утратили и
  4. В. И. Глазко В. Ф. Чешко «опасное знание» в «обществе риска» (век генетики и биотехнологии) Харьков ид «инжэк» 2007 удк 316. 24 Ббк 28. 04 Г 52 Рекомендовано к изданию решение

    Решение
    Настоящая монография посвящена философским и естественнонаучным аспектам превращения современной фундаментальной науки и высоких технологий в фактор социального риска.
  5. Учебник под редакцией доктора (1)

    Учебник
    Курс экономической теории является базовым для экономического образования, с него начинается обучение студентов всех экономических специальностей. Учебник «Экономика», подготовленный коллективом авторов под руководством д-ра экон.

Другие похожие документы..