• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты
Руководство
Заместитель руководителя Пащенко Тарас Валерьевич
Заместитель руководителя Дроздова Дарья Николаевна
Менеджер по работе с преподавателями Захарова Наталия Владимировна

+7 (495) 772-95-90 *22685

Мероприятия
11 ноября – 17 ноября
Регистрация до 15 октября 2019 
Книга
Философская антропология Андрея Платонова

Неретина С. С., Никольский С. А., Порус В. Н.

М.: Институт философии РАН, 2019.

Статья
Reversal concept of truth in Plato

Gloukhov A.

ΣΧΟΛΗ. Ancient Philosophy and the Classical Tradition. 2019. Vol. 13. No. 2. P. 513-536.

Глава в книге
К понятию "цивилизационный проект" в контексте поздней глобализацции

Афанасов Н. Б.

В кн.: Вопросы социальной теории: Научный альманах. Т. XI: Пути цивилизационного развития. Перспективы для России.. М.: Издательство Независимого института гражданского общества, 2019. С. 28-40.

Препринт
Childhood in Medieval Autobiography

Zaretsky Y.

SSRN Working Paper Series. SSRN Working Paper Series. Social Science Research Network, 2019

Этика 2.0: зачем машинам учиться принимать сложные решения

Машины теперь могут научить себя всему сами — они в состоянии оперировать большими данными более убедительно, чем человек. Так почему бы не отдать им на откуп самые сложные решения? На Future Foundation Technology Ethics Conference доцент НИУ ВШЭ Кирилл Мартынов рассказал, как люди помогают роботам понять, что хорошо, а что нет, и в чем заключается опасность, связанная с развитием искусственного интеллекта. T&P публикуют основные тезисы лекции «Универсальная этическая машина: мораль после big data».

"Как современные технологии меняют или могут менять общество? Мы уже находимся в ситуации, когда коммуникации поменялись под влиянием развития интернета, в первую очередь мобильного интернета. Эти изменения до сих пор никак не отрефлексированы. То есть люди попали в ситуацию, когда из любого кармана, из гаджета, который доступен подростку, доступна по большому счету вся совокупность знаний человечества — и при этом это никого не трогает. Все считают, что так всегда было и никаких серьезных культурных изменений не произошло.

Когда мы говорим про технологическое будущее, в частности про будущее, где есть разумные машины или, по крайней мере, автономные машины, способные самостоятельно действовать в сложной среде, мы постоянно попадаем в ловушку, навязанную нам массовой культурой. Я загуглил термин «war machines», и гугл выдал мне более 60 миллионов совпадений. Говоря о том, как будет выглядеть будущее, люди постоянно возвращаются к теме, придуманной в «Терминаторе». Сейчас включился второй сценарий: даже если воевать с машинами мы не будем, то, говорят нам, машины отберут все рабочие места. Все это уводит нас от реальных проблем.

Типичным примером реальной проблемы может считаться идея, сформулированная в книге Юваля Ноя Харари «Homo Deus». Харари высказывает радикальный тезис: будущее, к которому нам стоит готовиться, связано с концом и реальной уникальности человека в качестве субъекта, и наших представлений о том, что только человек может обладать этой уникальной субъектностью. То есть, иными словами, если до сегодняшнего момента и по состоянию на 2016 год в человеческой истории, в человеческой культуре всегда действовали только люди (люди как солдаты, люди как избиратели, люди как экономические агенты), то в ближайшем будущем, помимо людей, появятся другие системы, которые будут в состоянии принимать решения и действовать в рамках реального мира, изменив социальную реальность. И это реальный риск. Эта вещь гораздо более серьезная, чем примитивные фантазии насчет войны людей и машин."

Полный текст на сайте T&P