Новое общество

Реконструкция человека: помогут ли технологии создать новое общество?

Петр Левич

Как изменится социум под влиянием новых технологий, и можно ли будет когда-нибудь создать человека в новой цифровой реальности? Об этом беседовали директор департамента STS МТИ, исполнительный директор Молодежного общества нейротехнологов, основатель Future Foundation Петр Левич и кандидат социологических наук, старший научный сотрудник Социологического института РАН Лилия Земнухова.

Петр Левич (П. Л.): Лилия, расскажи немного о себе и сфере твоих интересов.

Лилия Земнухова (Л. З.): Последние 7 лет, начиная с аспирантуры, я занимаюсь исследованиями профессионального сообщества IT-специалистов. Но параллельно в магистратуре я писала о взаимодействии человека и компьютера (human-computer interaction, HCI), и сейчас продолжаю свои исследования в этой области.

П. Л.: Поговорим о human-computer interaction. Я считаю, что в будущем эта сфера распадется на множество методов взаимодействия между человеком и машинами. Все начиналось с использования обычного клавиатурного метода и голосовых команд. Теперь мы научились управлять машинами голосом, начинаем создавать нейроинтерфейсы и обучаем нейронные сети на нашем поведении.

Далее появляются «умные» гаджеты — персональные интеллектуальные помощники, такие очень умные Siri. Мы можем делегировать им рутинные операции — заказать еду или вызвать такси. Таким образом, наша жизнь упрощается благодаря искусственным агентам. Предположим, что вам нужно найти отель с количеством звезд на Booking не менее N и чтобы рядом был ресторан с количеством звезд на Foursquare не менее P. И чтобы дизайн в отеле был, как нравится именно вам. Это классическая проблема оптимизации. Её очень неудобно решать вручную через два приложения. Это случай как раз для таких персональных интеллектуальных агентов, и принципиально важна в них технология глубокого обучения нейронных сетей — чтобы они знали, что значит «нравится дизайн» именно для вас. Пока что такого технологического решения нет на рынке, но, судя по всему, ждать осталось недолго, учитывая скорость развития технологии глубокого обучения.

В связи с этим возникает вопрос — как данный процесс изменит общество? Например, раньше для получения информации нам нужно было затратить несколько часов, чтобы сходить в библиотеку. Потом период времени снизился до нескольких минут благодаря поисковым системам. Сейчас, с появлением нейроинтерфейса, нам необходимы доли секунды, чтобы подумать об этом и получить информацию. В итоге происходят количественные изменения — время доступа к информации. И это количественные изменения из-за своей скорости переходят в качественные. Влечет ли это качественные изменения в социуме? Согласись, что люди, взаимодействующие с компьютером, отличаются от тех, кто пользуется библиотеками.

И второй момент. Существует популярное мнение, с которым я не согласен, что чем больше функций мы делегируем машинам, тем глупее становимся. Как мне кажется, передавая устройствам большие объемы информации, мы оставляем для себя более сложные вопросы. А именно: какую информацию можно анализировать, как она повлияет на общество? Хотелось бы услышать твое мнение по этому поводу. Есть ли перспективы кардинальных изменений общества под влиянием персональных интеллектуальных помощников?

Л. З.: Если мы посмотрим на дисциплинарное развитие HCI, становится понятно, что в процесс взаимодействия включаются все новые и новые параметры. Разные типы данных требуют новых методов выстраивания этого взаимодействия. При этом усложняется и качество информаци. В результате коммуникация происходит на более высоких уровнях. Скажем, голосовые команды требуют от машины определенных затрат на обработку данных. Нейроинтерфейсы нуждаются в более сложных алгоритмах, обучение нейронных сетей строится на огромном количестве разнообразной входящей информации. Когда мы говорим о том, как будет качественно меняться общество в зависимости от возникновения новых способов общения между техникой и человеком, важно учитывать, с каким видом информации мы работаем. Поэтому даже в делегировании операций все вводимые данные порождают варианты действий машин.

В одном из эпизодов сериала «Черное зеркало» девушка, потерявшая мужа, получила шанс «реконструировать» его на основе данных, которые он когда-то оставлял, будучи активным пользователем интернета и соцсетей. С использованием голоса, текстовых сообщений, графики и активности в сети формируется новый «условный» человек. Все воссоздается на тех параметрах, которые сейчас носят название «цифрового следа» — это то, что есть практически у каждого пользователя соцсетей (видео, фото, записи и т. д.).

В одной из серий сериала «Черное зеркало» героиня воссоздала своего погибшего мужа с помощью его цифровой копии

Даже с учетом того, что сериал — фантастика, нам становится понятно, что полноценного социально активного человека невозможно создать, имея только лишь эти параметры. Например, нужно учитывать сенсорику, эмоции. А для разработчиков это пока неосуществимые вещи.

П. Л.: Ты затронула очень важную тему, связанную с цифровым бессмертием: как добровольным, так и недобровольным. В ближайшем будущем мы столкнемся с тем, что обученная цифровая сеть может стать нашим «клоном». Но не исключено, что подобные эксперименты выльются в противоправные действия, в частности в «угон личности» в виртуальной реальности. Многими экспертами даже называется понятие «кризис идентичности» — эффект, когда наша идентичность для окружающих в большей степени определяется цифровым следом, который, в свою очередь, легко подделать и украсть.

Допустим, мы заходим на сервер и не можем понять, кто перед нами: аватары, управляемые людьми, или образы, которые функционируют самостоятельно, в то время как их хозяин уже не владеет ими — по своему желанию отказался от пользования или умер. Может ли такая цифровая идентичность стать проблемой для виртуальных миров? А может быть, это не проблема, а лишь наша новая действительность, и она не хуже современной?

Л. З.: Я считаю, что виртуальный мир без реального не имеет особого смысла. Несостоятельность виртуального пространства объясняется тем, что контент не может генерировать сам себя: для этого нужен постоянный приток данных. Его нужно продолжать развивать, а это требует постоянного включения пользователей и разработчиков. Я не берусь утверждать, что VR-мир невозможен в принципе. Но он не производит содержательного смысла и не существует сам по себе. Именно поэтому люди, которых ты обрекаешь на цифровое бессмертие, будут просто уходить в «грязные» данные — неактивные, неактуальные, боты и т.д.

П. Л.: Хорошо. Вернемся к нашей теме о скорости изменения интерфейсов и качества общества.

Л. З.: Технологическое развитие общества несомненно несет много качественных изменений. Лучше меня об этом расскажут технические евангелисты и те, кто продвигают новые цифровые форматы жизни и коммуникации. Но о чем действительно важно задуматься, так это об осознанности как разработчиков, так и общества по поводу создаваемых изобретений.

Раньше каждая разработка проходила долгий путь перед массовым внедрением. Сейчас информация распространяется с огромной скоростью. Завоевать огромное количество пользователей можно очень быстро. Для разработчиков становится актуальной проблема социальной ответственности: ученые должны отдавать себе отчет в том, как их проекты повлияют на социум. Технологий с каждым днем становится больше. Трудно оценивать комплексность их влияния на жизнь человека. Сегодня их сначала практикуют, и только потом оценивают последствия.

П. Л.: Если бы все разработчики могли предугадать последствия, то и проблем бы не было. Но тогда и прогресс свелся бы к минимуму. Любую технологию можно использовать как во благо, так и во вред. И вряд ли найдется такой изобретатель, который, создав что-то и обнаружив негативные последствия своей разработки, в один миг уничтожит все образцы или черновики, чтобы не навредить. Может быть, предложить какую-то работающую систему регулирования? И кто, на твой взгляд, должен нести ответственность: государство, правозащитные организации?

Л. З.: Я считаю, что на разных этапах создания технологий нужно подключать экспертные группы, в том числе состоящие из социальных ученых. У нас мало институционализирована эта практика, поэтому сложно говорить о конкретных экспертных группах. Как следствие, роль таких специалистов преуменьшается. Тем не менее, они действительно могут оценить или дать хотя бы приблизительную картину того, какие последствия и риски остались за пределом внимания разработчиков.

П. Л.: Итак, с одной стороны, есть технологии, некоторые применения которых могут негативно сказаться на социуме. Ты предлагаешь работать с ними с помощью специальных групп экспертов, в том числе социологов. Но есть и противоположные ситуации: существуют позитивные применения технологий, а этические сообщества его тормозят. Например, мы не можем пока лечить генетические заболевания с помощью редактирования генома, так как не получен эффективный результат данной процедуры. Но сможем ли мы это делать, когда решатся технические проблемы? Не останется ли этического барьера? Или рассмотрим ситуацию с запретом ГМО в России. Известно, что данная технология уже прошла все испытания, но тем не менее у нас она недопустима. Получается, что общество не готово к некоторым техническим разработкам, за счет чего теряет возможности для развития — экономического и социального.

Л. З.: Вопрос даже не в этическом барьере общества, а в психологическом. На мой взгляд, этот барьер возникает по двум причинам. Первая заключается в недостатке информации. Вторая существует до тех пор, пока обсуждаемая разработка не становится повесткой дня на политическом уровне и пока официальные представители не заявят о конкретной позиции, которая потом станет разделяться большинством населения. Таким образом, открытой и очень доступной остается та информация по изобретению, которая играет на поддержку данной технологии. Здесь всегда будет иметь место манипулирование, учитывая тот факт, что за всеми дискурсами стоят вполне конкретные институциональные единицы. То есть кому-то выгодно, чтобы на рынок выводились определенные продукты и программы. Технология всегда предполагает контекст — политический, социальный, экономический.

П. Л.: Следующий вопрос, который логично продолжает нашу тему. К чему скорее приводят новейшие технологии: к поддержке прав человека, толерантности, всему «хорошему, доброму, вечному»? Или, наоборот, к тоталитаризму, «закручиванию гаек», нарушению прав человека через передачу контролирующим группам (государствам, корпорациям) новых методов слежения и подавления?

Л. З.: Я лично склоняюсь к первому варианту — в этом случае есть возможность выбирать. Ведь когда в обществе процветает тотальный контроль, то предполагается, что доступ к информации просто отсутствует (привет Северной Корее).

Чтобы всё «хорошее, доброе, вечное» продолжалось, нужна большая осознанность пользователей. И мне кажется, именно это сейчас и происходит: она возрастает и становится частью повседневности. Контроль власти был и будет всегда, но я верю, что интернет дает трансграничную реальность, возможность анализировать, проверять информацию.

П. Л.: И еще один вопрос, в большей степени философский. Какой может быть новая идентичность человечества, наше самоопределение? В век, когда критерий «сотворен Богом» уже устраивает далеко не всех, а критерий, предложенный новым временем — «определенный геномом homo sapience» уже разваливается под натиском CRISPR, когда нейронные сети могут копировать нас до степени прохождения визуального, текстового и прочих тестов Тьюринга, что остается нам, людям, как критерий человечности? Кто это такой — человек ближайшего будущего?

Л. З.: Вне зависимости от степени вмешательства технологий в жизнь человека, чувства, эмоции остаются пока очень слабо воспроизводимыми — они во многом составляют сущность человечества. Я не думаю, что фундаментальные ценности в виде морали и нравственности или совесть могут быть воссозданы технологиями. Поэтому тотальное репродуцирование человека в искусственном виде мне кажется бессмысленным.

П. Л.: Я понял твой ответ так: у нас есть одно мнение о том, что человек — тот, кто чувствует себя как человек. И другое: человек — тот, кто принимает морально-этические решения.

Рассмотрим крайние случаи этих определений. В первом случае представим ситуацию с генетически редактированным организмом, лишенным мыслительных способностей, но с нормальной гормональной системой. И второй вариант — мы используем беспилотный автомобиль, который заточен на принятие решений.

Л. З.: То, что воспроизводит искусственный интеллект в качестве морального решения, является обработкой исходных данных о том, что такое представления о морали. И для беспилотного автомобиля решение будет считаться математической установкой в виде «наименьшего зла» — а точнее, оптимального выбора с точки зрения калькуляции исходных данных. Человек в реальной жизни руководствуется другими принципами.

П. Л.: То есть дело не только в моральных ценностях, но и в свободе выбора? Насколько нам будет комфортно в случае создания какого-то генетически редактированного организма, способного принимать решения, делегировать ему права быть человеком?

Л. З.: В современной жизни у всех людей моральные представления разные. Где граница между тем, кого можно назвать человеком, и тем, кого нельзя? Мне кажется, что это мнение будет меняться в ближайшие 30–40 лет. Зачатие с помощью экстракорпорального оплодотворения или клонирование еще долго будут рассматриваться обществом как несанкционированное вмешательство технологий в жизнь. Но я не думаю, что созданные таким образом организмы лишатся права на существование. Я считаю, что пока этот новый homo sapiens сможет проходить все этапы социализации и будет обучаться, как все, и полноценно участвовать в социальной жизни, он сможет называться человеком.

Спикеры обсудят эти и другие темы на семинаре в Московском технологическом институте 5 августа в 19:00. Регистрация (обязательна): https://futuref.timepad.ru/event/355919/

Фото: Flickr/Simona Fallacara

Подпишись на Аппарат
Facebook
Вконтакте
E-mail дайджест
Популярное за неделю