3. Свобода. Алгоритмы следят за тобой

Онлайн чтение книги 21 урок для XXI века
3. Свобода. Алгоритмы следят за тобой

В либеральной концепции свобода человека считается наивысшей ценностью. Сторонники либерализма утверждают, что в конечном счете источником любой власти служит свободная воля отдельных людей, выраженная в их чувствах, желаниях и выборе. В политике либерализм полагается на мнение избирателя и поэтому поддерживает демократические выборы. В экономике либерализм руководствуется принципом «клиент всегда прав» и превозносит принципы свободного рынка. В частной жизни либерализм призывает человека прислушиваться к себе, быть честным с собой и следовать велению сердца – до тех пор, пока он не посягает на свободу других. Эта личная свобода закреплена в правах человека.

Термин «либеральный» иногда используется в более узком смысле, как противоположность понятию «консервативный». Однако многие так называемые консерваторы тоже придерживаются принципов либерализма. Проверьте себя. Считаете ли вы, что люди должны выбирать правительство, а не слепо повиноваться монарху? Считаете ли вы, что люди должны сами выбирать себе профессию, а не оставаться в касте, к которой принадлежат по рождению? Считаете ли вы, что люди должны сами выбирать себе супруга, а не вступать в брак с тем, на кого указали родители? Если на все три вопроса вы ответили «да», примите мои поздравления: вы либерал.

Примечательно, что такие иконы консерватизма, как Рональд Рейган и Маргарет Тэтчер, были убежденными защитниками не только экономических, но и личных свобод. В 1987 году в своем знаменитом интервью Тэтчер сказала: «Общества как такового не существует. Есть только живая ткань из мужчин и женщин… и качество нашей жизни будет зависеть от того, насколько каждый из нас готов за себя отвечать»[42]Margaret Thatcher, ‘Interview for Woman’s Own (“no such thing as society”)’, Margaret Thatcher Foundation, 23 September 1987, https://www.margaretthatcher.org/document/106689, accessed 7 January 2018..

Наследники Тэтчер из партии консерваторов полностью согласны с лейбористами в том, что политическая власть проистекает из чувств, выбора и свободной воли отдельных избирателей. Когда Великобритания оказалась перед выбором, выходить из ЕС или нет, премьер-министр Дэвид Кэмерон не обращался за ответом к королеве Елизавете II, архиепископу Кентерберийскому или к ученым мужам из Оксфорда и Кембриджа. Он даже не обращался к членам парламента. Премьер-министр назначил референдум, и каждому британцу был задан вопрос: «Что вы чувствуете

Вы возразите, что людей спрашивали: «Как вы думаете ?», а не «Что вы чувствуете ?» – но это распространенная ошибка восприятия. На референдумах и выборах исход всегда зависит от чувств людей, а не от их рациональных размышлений. Если бы демократия требовала рационального принятия решений, не было бы никакого резона давать людям равные избирательные права – или вообще хоть какие-то избирательные права. Существует масса свидетельств того, что одни люди гораздо лучше информированы и более способны к рациональному мышлению, чем другие, особенно когда дело касается конкретных экономических и политических вопросов[43]Keith Stanovich, Who Is Rational? Studies of Individual Differences in Reasoning (New York: Psychology Press, 1999).. После референдума по Брекзиту выдающийся биолог Ричард Докинз высказал мнение, что подавляющее большинство британцев – включая его самого – не должны были голосовать на референдуме, поскольку не обладали необходимыми знаниями в области экономики и политики. «С тем же успехом можно организовать национальный плебисцит, чтобы решить, верны ли выкладки Эйнштейна, или позволить пассажирам голосовать, на какую полосу пилот должен посадить самолет»[44]Richard Dawkins, ‘Richard Dawkins: We Need a New Party – the European Party’, NewStatesman, 29 March 2017, https://www.newstatesman.com/politics/uk/2017/03/richard-dawkins-we-need-new-party-european-party, accessed 1 March 2018..

Хорошо это или плохо, но выборы и референдумы выявляют не мысли, а чувства людей. А в том, что касается чувств, Эйнштейн и Докинз ничем не лучше любого другого человека. Демократия предполагает, что наши чувства отражают загадочную и глубокую «свободу воли», что эта «свобода воли» – главный источник власти и что, хотя некоторые люди умнее других, все они одинаково свободны. Неграмотная горничная обладает такой же свободой воли, как Эйнштейн и Докинз, и в день голосования ее чувства, выраженные в сделанном ею выборе, обладают таким же весом, как и чувства всех остальных.

Чувствами руководствуются не только избиратели, но и политические лидеры. В 2016 году в процессе подготовки референдума по Брекзиту кампанию за выход из ЕС возглавляли Борис Джонсон и Майкл Гоув. После отставки Дэвида Кэмерона Гоув поначалу поддерживал кандидатуру Джонсона, но в последний момент заявил, что тот не подходит для должности премьер-министра, и объявил о намерении самому бороться за этот пост. Действия Гоува, лишившие Джонсона шансов стать главой кабинета, были расценены как политическое убийство в стиле Макиавелли[45]Steven Swinford, ‘Boris Johnson’s allies accuse Michael Gove of “systematic and calculated plot” to destroy his leadership hopes’, Telegraph, 30 June 2016, http://www.telegraph.co.uk/news/2016/06/30/boris-johnsons-allies-accuse-michael-gove-of-systematic-and-calc/, accessed 3 September 2017; Rowena Mason and Heather Stewart, ‘Gove’s thunderbolt and Boris’s breaking point: a shocking Tory morning’, Guardian, 30 June 2016, https://www.theguardian.com/politics/2016/jun/30/goves-thunderbolt-boris-johnson-tory-morning, accessed 3 September 2017.. Но Гоув оправдывал свой поступок чувствами, объясняя: «Перед каждым шагом в своей политической жизни я задавал себе вопрос: „Как я должен поступить? Что мне подсказывает сердце?“»[46]James Tapsfield, ‘Gove presents himself as the integrity candidate for Downing Street job but sticks the knife into Boris AGAIN’, Daily Mail, 1 July 2016, http://www.dailymail.co.uk/news/article-3669702/I-m-not-great-heart-s-right-place-Gove-makes-bizarre-pitch-Downing-Street-admitting-no-charisma-doesn-t-really-want-job.html, accessed 3 September 2017. Вот почему, если верить Гоуву, он так яростно сражался за Брекзит, а затем счел необходимым нанести удар в спину своему верному союзнику Борису Джонсону, чтобы самому претендовать на статус альфа-самца: так подсказывало ему сердце.

Возможно, именно эта зависимость от веления сердца – ахиллесова пята либеральной демократии. Если кто-то (неважно, в Пекине или в Сан-Франциско) получит технологическую возможность «проникать в человеческое сердце» и манипулировать им, демократическая политика превратится в театр эмоциональных марионеток.

Прислушивайтесь к алгоритму

Либеральная вера в чувства и свободный выбор индивидов не являются ни естественными, ни древними. Тысячелетиями люди верили, что источник власти – божественные законы, а не человеческое сердце, а потому нужно благословлять слово Божие, а не свободу человека. Только в последние несколько веков источник власти переместился от богов, обитающих на небесах, к людям из плоти и крови.

Вскоре мы снова можем стать свидетелями передачи власти – но уже от людей к алгоритмам. Точно так же, как легитимацией божественной власти служила религиозная мифология, а власти людей – либеральная концепция, грядущая технологическая революция утвердит власть алгоритмов Big Data, подорвав саму идею индивидуальной свободы.

Как я уже отмечал в предыдущей главе, научные исследования функционирования нашего мозга и тела указывают на то, что чувства не являются уникальным духовным качеством человека и следствием «свободы воли». Скорее чувства представляют собой биохимические механизмы, которые используют все млекопитающие и птицы для быстрого вычисления шансов на выживание и продолжение рода. Чувства основаны не на интуиции, вдохновении или свободе – в их основе лежат вычисления.

Когда обезьяна, мышь или человек видит змею, чувство страха возникает из-за того, что миллионы нейронов в мозгу быстро обрабатывают соответствующие данные и приходят к заключению, что вероятность гибели велика. Чувство полового влечения возникает тогда, когда другие биохимические алгоритмы вычисляют, что находящийся рядом индивид обещает высокую вероятность успешного партнерства, социальных связей или какую-либо другую желанную цель. Нравственные чувства, такие как негодование, вина или прощение, обусловлены нейронными механизмами, отвечающими за групповое сотрудничество. Все эти биохимические алгоритмы совершенствовались миллионами лет эволюции. Если чувства одного из наших древних предков приводили к фатальной ошибке, то гены, сформировавшие эти чувства, не передавались следующему поколению. Таким образом, чувства не противоположны рациональности – они суть воплощение эволюционной рациональности.

Нам непросто осознать, что наши чувства представляют собой результат вычислений, поскольку быстрый вычислительный процесс протекает далеко за порогом нашего сознания. Мы не ощущаем, как миллионы нейронов мозга просчитывают вероятности выживания и продолжения рода, и поэтому ошибочно полагаем, что боязнь змей, выбор полового партнера или отношение к Евросоюзу определяются некой таинственной «свободой воли».

Теоретики либерализма ошибаются, полагая, что наши чувства отражают свободу воли, однако вплоть до недавнего времени руководствоваться чувствами было вполне разумно. В наших чувствах нет никакой магии, и все же именно они лучше всего помогают понять, чему нам учиться, на ком жениться, за какую партию голосовать. Никакая внешняя по отношению ко мне система никогда не поймет мои чувства лучше, чем я сам. Даже если бы испанская инквизиция или советский КГБ следили за мной каждую минуту каждого дня, у них не хватило бы биологических знаний и вычислительных мощностей, чтобы вмешаться в процессы, определяющие мои желания и мой выбор. С практической точки зрения было разумно считать, что мы обладаем свободой воли, потому что наша воля определяется в основном взаимодействием внутренних сил, невидимых снаружи. Я могу наслаждаться иллюзией контроля над своим внутренним миром, тогда как внешние наблюдатели никогда не поймут, что происходит у меня в мозгу и как я принимаю решения.

Так что либералы правы, когда советуют людям поступать по велению сердца, а не подчиняться диктату священника или партийного аппаратчика. Но по мере того как на место испанской инквизиции и КГБ будут заступать Google и Baidu, «свобода воли», скорее всего, превратится в миф, и тогда либерализм может лишиться своих практических преимуществ.

На наших глазах происходит слияние двух масштабных революций. Биологи проникают в тайны человеческого тела, мозга и чувств. Одновременно специалисты в области вычислительных систем открывают беспрецедентные возможности обработки данных. Когда биотехнологическая революция сольется с революцией в ИТ, появятся алгоритмы Big Data, способные следить за нашими чувствами и понимать их гораздо лучше, чем мы. И тогда власть перейдет от людей к компьютерам. Иллюзия свободы воли, скорее всего, развеется, если я каждый день буду сталкиваться с институтами, корпорациями и госучреждениями, которые манипулируют тем, что я до недавних пор считал своим внутренним миром, недоступным для других.

Для краткости воспользуемся следующей формулой:

б × в × д = ввч, где

б – биологическое знание,

в – вычислительная мощность,

д – объем данных.

Их произведение – ввч – возможность взломать человека.


Мы уже видим, как это работает в медицине. Самые важные медицинские решения опираются не на наше самочувствие, и даже не на компетентные прогнозы врача, а на вычисления компьютера, который понимает наше тело лучше, чем мы. Через несколько десятилетий алгоритмы больших данных, обрабатывающие непрерывный поток биометрической информации, смогут следить за нашим здоровьем ежедневно, 24 часа в сутки. Они выявят грипп, рак или болезнь Альцгеймера на самой ранней стадии – задолго до того, как мы почувствуем, что с нами что-то не так. Затем они порекомендуют необходимое лечение, диету и режим, разработанные с учетом наших физических данных, ДНК и особенностей личности.

Люди получат лучшее здравоохранение в истории, но именно поэтому они, вероятно, будут постоянно болеть. В нашем организме всегда есть неполадки и всегда есть что улучшить. В прошлом человек ощущал себя совершенно здоровым, пока не чувствовал боль или не начинал страдать от нарушения каких-то функций, например от хромоты. Но к 2050 году благодаря биометрическим датчикам и алгоритмам больших данных болезни будут диагностироваться и лечиться задолго до появления боли или нарушения функций. В результате вы всегда будете считаться «больным» и выполнять те или иные рекомендации алгоритма. А отказавшись лечиться, вы можете лишиться страховки или даже работы – зачем работодателю платить за ваше упрямство?

Одно дело – не отказываться от сигарет, несмотря на статистические данные, связывающие курение с раком легких. Совсем другое – продолжать курить, вопреки категорическому предупреждению биометрического датчика, который обнаружил в верхней доле левого легкого 17 раковых клеток. А если вы решите проигнорировать предупреждение, что будет, когда датчик сообщит информацию вашей страховой фирме, вашему начальнику и вашей матери?

Но где взять время и силы, чтобы бороться со всеми этими болезнями? Скорее всего, мы научимся так программировать следящий за нашим здоровьем алгоритм, чтобы он сам справлялся с большинством выявленных проблем. В идеале он будет периодически слать отчеты нам на смартфон, сообщая, что «обнаружены и уничтожены 17 раковых клеток». Ипохондрики, конечно, расстроятся, но большинство людей просто проигнорируют эти сообщения точно так же, как сегодня мы игнорируем сообщения антивирусной программы на компьютере.

Драматизм принятия решений

То, что уже происходит в медицине, по всей видимости, будет распространяться и на другие сферы человеческой деятельности. Главное изобретение – биометрический датчик на поверхности или внутри тела, который преобразует биологические процессы в электронную информацию для компьютерной обработки и хранения. Достаточное количество информации и достаточная вычислительная мощность позволят внешним системам обработки данных вызнать все о ваших желаниях, решениях и мнениях. Они смогут точно определить, кто вы.

Большинство людей плохо себя знает. Я сам только в 21 год, после нескольких лет отрицания, наконец понял, что я гей. И мой случай не исключение. В подростковом возрасте многие геи сомневаются в своей сексуальной ориентации. Теперь представьте себе ситуацию: в 2050 году алгоритм точно подскажет подростку, в какой части спектра ориентации (гомосексуальной или гетеросексуальной) он находится и насколько гибка эта позиция. Возможно, алгоритм покажет вам фотографии или видео привлекательных мужчин и женщин, проследит за движением ваших глаз, кровяным давлением и активностью мозга, и уже через пять минут определит ваше положение на шкале Кинси[47]В 2017 году исследователи из Стэнфорда разработали алгоритм, который якобы определяет сексуальную ориентацию человека с точностью 91 % только на основе нескольких фотографий его лица (https://osf.io/zn79k/). Но алгоритм разрабатывался на основе фотографий, которые люди выбирали сами для загрузки на сайты знакомств, и поэтому он мог идентифицировать различия в культурных идеалах. Это не значит, что выражение лица геев обязательно отличается от выражения лица у людей традиционной ориентации. Скорее геи, размещающие свои фото на сайте знакомств для геев, пытают соответствовать другому культурному идеалу, чем люди традиционной сексуальной ориентации, публикующие свои фотографии на соответствующих сайтах знакомств.. Подобное изобретение могло бы избавить меня от нескольких лет фрустрации. Возможно, сами вы не испытываете желания проходить такой тест, но однажды на чьем-нибудь дне рождения кто-то из друзей предложит всем проверить себя с помощью нового крутого алгоритма (а все остальные будут стоять и смотреть, комментируя результаты). Вы откажетесь и уйдете?

Но даже если вы скрываете свою сексуальную ориентацию от себя и друзей, у вас не получится скрыть ее от Amazon, Alibaba или тайной полиции. Пока вы бродите по интернету, смотрите YouTube или листаете социальные сети, алгоритмы будут внимательно следить за вами, изучать вас и сообщать компании Coca-Cola, что, если она хочет продавать вам свои напитки, ей лучше использовать рекламу с полуобнаженным парнем, а не с полуобнаженной девушкой. Сами вы об этом даже не узнаете. Но они – будут знать, и ценность такой информации будет исчисляться миллиардами.

С другой стороны, нельзя исключить, что люди сами будут с готовностью делиться личными данными, чтобы получать наилучшие рекомендации, а то и вовсе просить алгоритм принимать решения вместо них. Начнется все с самого простого, например с выбора фильма для просмотра. Когда вы усаживаетесь с друзьями перед телевизором, сначала нужно решить, что все будут смотреть. Полвека назад у вас не было выбора, но сегодня, с развитием интерактивного телевидения, в вашем распоряжении – тысячи названий. Договориться непросто, потому что вы, например, любите научно-фантастические триллеры, Джек предпочитает романтические комедии, а Джилл обожает французский артхаус. В итоге компромиссом станет, скорее всего, бездарный малобюджетный фильм, который разочарует всех.

В подобной ситуации на помощь придет алгоритм. Вы сообщите ему, какие из ранее просмотренных фильмов понравились каждому из вас, и он, покопавшись в огромной базе данных, найдет идеальное решение для всей группы. К сожалению, слишком грубый алгоритм может ошибиться, особенно из-за того, что сведения, которые люди сообщают о себе, не всегда точно отражают их истинные предпочтения. Например, мы слышим, как многие хвалят фильм, называя его шедевром, чувствуем себя обязанными его посмотреть, засыпаем на середине, но все равно говорим, что восхищены, не желая выглядеть профанами[48]David Chan, ‘So Why Ask Me? Are Self-Report Data Really That Bad?’ in Charles E. Lance and Robert J. Vandenberg (eds.), Statistical and Methodological Myths and Urban Legends (New York, London: Routledge, 2009), 309–336; Delroy L. Paulhus and Simine Vazire, ‘The Self-Report Method’ in Richard W. Robins, R. Chris Farley and Robert F. Krueger (eds.), Handbook of Research Methods in Personality Psychology (London, New York: The Guilford Press, 2007), 228–233..

Такого рода проблемы легко решить, если просто позволить алгоритму не полагаться на наши сомнительные самоотчеты, а собирать данные о нас в реальном времени, во время просмотра фильмов. Для начала алгоритм просто запомнит, какие фильмы мы досмотрели до конца, а какие бросили на середине. Даже если мы говорим всем и каждому, что «Унесенные ветром» – лучший из когда-либо снятых фильмов, алгоритм будет знать, что мы ни разу не продержались больше получаса и никогда не видели горящей Атланты.

Но алгоритм способен и на более глубокий анализ. В настоящее время разрабатывается программное обеспечение, умеющее распознавать эмоции человека по движению глаз и лицевых мышц[49]Elizabeth Dwoskin and Evelyn M. Rusli, ‘The Technology that Unmasks Your Hidden Emotions’, Wall Street Journal, 28 January 2015, https://www.wsj.com/articles/startups-see-your-face-unmask-your-emotions-1422472398, accessed 6 September 2017.. Дополните телевизор хорошей камерой, и программа будет знать, какие сцены заставляют вас смеяться, какие вызывают грусть, а какие скуку. Затем предоставьте алгоритму доступ к показаниям биометрических датчиков, и он определит, как разные кадры влияют на частоту сокращений вашего сердца, на кровяное давление и активность мозга. Когда, например, мы смотрим «Криминальное чтиво» Тарантино, алгоритм может отметить, что сцена изнасилования вызывает у нас едва заметный импульс сексуального возбуждения, что случайный выстрел Винсента в лицо Марвину заставляет нас виновато рассмеяться, а шутку про бургер мы вообще не поняли – но все равно засмеялись, просто чтобы не выглядеть глупо. Когда вы заставляете себя смеяться, работают не те цепи нейронов в мозгу и не те лицевые мышцы, которые приходят в действие при искреннем смехе. Люди, как правило, не видят этих различий – но алгоритм их улавливает[50]Norberto Andrade, ‘Computers Are Getting Better Than Humans at Facial Recognition’, Atlantic, 9 June 2014, https://www.theatlantic.com/technology/archive/2014/06/bad-news-computers-are-getting-better-than-we-are-at-facial-recognition/372377/, accessed 10 December 2017; Elizabeth Dwoskin and Evelyn M. Rusli, ‘The Technology That Unmasks Your Hidden Emotions’, Wall Street Journal, 28 June 2015, https://www.wsj.com/articles/startups-see-your-face-unmask-your-emotions-1422472398, accessed 10 December 2017; Sophie K. Scott, Nadine Lavan, Sinead Chen and Carolyn McGettigan, ‘The Social Life of Laughter’, Trends in Cognitive Sciences 18:12 (2014), 618–620..

Слово «телевизор» образовано от греческого корня tele , что означает «далеко», и латинского visio  – «вижу». Изначально это было устройство, которое позволяло нам видеть издалека. Но вскоре с его помощью издалека будут видеть нас . Как предсказывал Джордж Оруэлл в романе «1984», телевизор будет наблюдать за нами, пока мы его смотрим. Возможно, мы быстро забудем все фильмы Тарантино. Но Netflix, Amazon или любой другой владелец телевизионного алгоритма не забудет, какой у нас тип личности и как управлять нашими эмоциями. Такие данные позволят им не только с невероятной точностью выбирать для нас фильмы, но и принимать за нас самые важные решения в жизни – чему учиться, где работать, на ком жениться.

Разумеется, иногда Amazon будет ошибаться. Это неизбежно. Ошибки будут возникать из-за недостатка данных, несовершенства программы, нечетко поставленных целей и хаотичного характера самой жизни[51]Daniel First, ‘Will big data algorithms dismantle the foundations of liberalism?’, AI & Soc, 10.1007/s00146-017-0733-4.. Но программа Amazon и не должна быть идеальной. Достаточно, чтобы в среднем алгоритм превосходил человека. А это не так уж трудно, потому что большинство людей плохо себя знают и, принимая самые важные в своей жизни решения, совершают ужасные ошибки. Люди страдают от недостатка данных, несовершенства программы (генетической и культурной), нечетких определений и хаоса жизни намного больше алгоритмов.

Можно перечислить множество проблем, с которыми сталкиваются алгоритмы, и прийти к выводу, что люди никогда не будут им доверять. Но это сродни составлению списка недостатков демократии с последующим заключением, что ни один здравомыслящий человек не поддержит такую систему. Широко известны слова Уинстона Черчилля о том, что демократия – худшая политическая система, если не считать всех остальных. Люди могут прийти к таким же выводам (справедливым или не очень) об алгоритмах больших данных: у них масса недостатков, но лучшей альтернативы у нас нет.

Ученые все яснее понимают природу процессов, связанных с принятием человеком решений, и соблазн довериться алгоритмам, скорее всего, будет усиливаться. Знания о процессе принятия решений мозгом не только повысят надежность алгоритмов больших данных, но и сделают менее надежными человеческие чувства. Когда правительства и корпорации взломают операционную систему человека, на нас обрушится шквал точно выверенных манипуляций, рекламы и пропаганды. Манипулировать нашим мнением и эмоциями станет так легко, что мы будем вынуждены довериться алгоритмам – подобно тому, как пилот самолета, у которого закружилась голова, должен игнорировать свои ощущения и довериться приборам и автоматике.

В ряде стран и в некоторых ситуациях у людей, возможно, просто не останется выбора: им придется подчиняться решениям алгоритмов больших данных. Но алгоритмы могут захватить власть даже в предположительно свободных обществах, поскольку мы на личном опыте научимся доверять им все больше и больше дел, постепенно утрачивая способность самостоятельно принимать решения. Задумайтесь: всего за два десятка лет миллиарды людей научились доверять алгоритму Google решение одной из самых важных задач: поиска достоверной информации. Мы больше не ищем информацию – мы «гуглим». И пока мы раз за разом полагаемся на Google, наша способность к самостоятельному поиску информации ослабевает. Уже сегодня «правдой» считается то, что попадает в верхние строки поисковой выдачи Google[52]Carole Cadwalladr, ‘Google, Democracy and the Truth about Internet Search’, Guardian, 4 December 2016, https://www.theguardian.com/technology/2016/dec/04/google-democracy-truth-internet-search-facebook, accessed 6 September 2017..

Нечто подобное происходит и с физическими возможностями, в частности с ориентацией на местности. Люди спрашивают дорогу у Google. Например, интуиция подсказывает водителю повернуть на перекрестке налево, но навигатор в Google Maps говорит: «Поверните направо». Поначалу водитель прислушивается к интуиции, поворачивает налево, попадает в пробку и пропускает важную встречу. В следующий раз он следует указанию Google, поворачивает направо и приезжает вовремя. Опыт приучает его доверять Google. Через год или два он уже слепо выполняет любые рекомендации Google Maps, а при поломке смартфона становится совершенно беспомощным.

В марте 2012 года в Австралии три японских туриста решили осмотреть маленький остров недалеко от берега и заехали на машине прямо в Тихий океан. Водитель, двадцатиоднолетний Юдзу Нода, впоследствии объяснил, что просто следовал указаниям системы GPS: «Она сказала нам, что мы можем ехать прямо туда. Навигатор говорил, что покажет нам дорогу. Мы чуть не утонули»[53]Jeff Freak and Shannon Holloway, ‘How Not to Get to Straddie’, Red Land City Bulletin, 15 March 2012, http://www.redlandcitybulletin.com.au/story/104929/how-not-to-get-to-straddie/, accessed 1 March 2018.. В нескольких аналогичных случаях люди въезжали в озеро или падали с разрушенного моста – вероятно, следуя инструкциям GPS-навигатора[54]Michelle McQuigge, ‘Woman Follows GPS; Ends Up in Ontario Lake’, Toronto Sun, 13 May 2016, http://torontosun.com/2016/05/13/woman-follows-gps-ends-up-in-ontario-lake/wcm/fddda6d6-6b6e-41c7-88e8-aecc501faaa5, accessed 1 March 2018; ‘Woman Follows GPS into Lake’, News.com.au, 16 May 2016, http://www.news.com.au/technology/gadgets/woman-follows-gps-into-lake/news-story/a7d362dfc4634fd094651afc63f853a1, accessed 1 March 2018.. Способность ориентироваться в пространстве подобна мышце – без тренировки она атрофируется[55]Henry Grabar, ‘Navigation Apps Are Killing Our Sense of Direction. What if They Could Help Us Remember Places Instead?’ Slate, http://www.slate.com/blogs/moneybox/2017/07/10/google_and_waze_are_killing_out_sense_of_direction_what_if_they_could_help.html, accessed 6 September 2017.. То же относится и к способности выбирать супруга или профессию.

Каждый год миллионам юношей и девушек приходится выбирать, какие предметы изучать в университете. Это очень важное и очень непростое решение. Вы испытываете давление родителей, друзей и преподавателей, у каждого из которых свой интерес и свое мнение. А у вас собственные страхи и фантазии. На ваше решение влияют голливудские блокбастеры, низкопробные романы и изощренные рекламные кампании. Разумное решение особенно трудно принять еще и потому, что вы не знаете, что требуется для успеха в разных профессиях, и у вас не всегда реалистичные представления о своих достоинствах и недостатках. Что нужно, чтобы стать успешным адвокатом? Как я буду реагировать на стресс? Получится ли у меня работать в команде?

Допустим, студентка выбирает юридический факультет, неверно оценив свои способности и имея искаженное представление о работе юриста (которая не сводится к прочувствованным речам и выкрикам: «Возражаю, ваша честь!»). А ее подруга полна решимости осуществить детскую мечту и стать профессиональной балериной, несмотря на неподходящее телосложение или трудности с самодисциплиной. По прошествии многих лет обе будут горько сожалеть о сделанном выборе. В будущем в подобных случаях мы сможем опереться на Google. Алгоритм подскажет, что я зря потрачу время на юридическом факультете или в балетной школе, но стану успешным (и очень счастливым) психологом или водопроводчиком[56]Joel Delman, ‘Are Amazon, Netflix, Google Making Too Many Decisions For Us?’, Forbes, 24 November 2010, https://www.forbes.com/2010/11/24/amazon-netflix-google-technology-cio-network-decisions.html, accessed 6 September 2017; Cecilia Mazanec, ‘Will Algorithms Erode Our Decision-Making Skills?’, NPR, 8 February 2017, http://www.npr.org/sections/alltechconsidered/2017/02/08/514120713/will-algorithms-erode-our-decision-making-skills, accessed 6 September 2017..

Когда искусственный интеллект начнет принимать оптимальные решения о выборе карьеры (а возможно, и об отношениях с другими людьми), наше представление о человеческой природе и о жизни должно будет измениться. Люди обычно думают, что жизнь – это драма принятия решений. Либеральная демократия и капитализм со свободным рынком рассматривают индивида как независимого агента, постоянно принимающего решения, касающиеся окружающего мира. Произведения искусства – будь то пьесы Шекспира, романы Джейн Остин или пошлые голливудские комедии – обычно фокусируются на герое, который должен сделать непростой выбор. Быть или не быть? Последовать совету жены и убить короля Дункана – или прислушаться к голосу совести и пощадить его? Выйти замуж за мистера Коллинза или за мистера Дарси? В фокусе и христианской, и исламской теологии находится драма принятия решения: спасение души зависит от правильного выбора.

Что случится с подобным взглядом на жизнь, если мы будем все больше полагаться на искусственный интеллект, предоставляя ему право решать за нас? Сегодня мы доверяем Netflix выбирать для нас фильмы и спрашиваем у Google Maps, куда поворачивать. Но как только мы начнем полагаться на искусственный интеллект в выборе образования, места работы и супруга, человеческая жизнь перестанет быть драмой принятия решений. Демократические выборы и свободный рынок потеряют смысл – а с ними и большинство религий и произведений искусства. Представьте себе, что Анна Каренина достает смартфон и спрашивает алгоритм Facebook, что ей делать: остаться с Карениным или сбежать с красавцем графом Вронским. Или вообразите пьесу Шекспира, в которой жизненно важные решения принимает алгоритм Google. Несомненно, жизнь Гамлета и Макбета стала бы более комфортной – но на что она стала бы похожа? Есть ли у нас модель, позволяющая наполнить такую жизнь смыслом?

По мере того как власть будет переходить от людей к алгоритмам, наш мир перестанет быть местом, в котором действуют независимые индивиды, стремящиеся сделать правильный выбор. Вместо этого мы будем воспринимать Вселенную в виде потока данных, а организмы – в виде биохимических алгоритмов, и верить, что космическая миссия человечества заключается в создании всеобъемлющей системы обработки данных и последующем слиянии с ней. Уже сегодня мы превращаемся в крошечные элементы внутри гигантской системы обработки данных, которую никто до конца не понимает. Каждый день я получаю поток битов информации из электронной почты, твитов и статей. На самом деле я не знаю, каково мое место в этой гигантской структуре и как мои биты данных связаны с другими, исходящими от миллиардов других людей и компьютеров. И у меня нет времени это выяснять, поскольку я занят отправкой ответов на электронные письма.

Философствующий автомобиль

Мне могут возразить, что алгоритмы не будут принимать за нас важные решения, поскольку такие решения обычно имеют этический аспект, а этика алгоритмам недоступна. Однако нет никаких причин полагать, что алгоритмы не смогут превзойти среднего человека даже в области этики. Уже сегодня смартфоны и беспилотные автомобили принимают такие решения, монополия на которые всегда принадлежала человеку. Они начинают сталкиваться с теми же этическими проблемами, которые тысячелетиями не давали покоя людям.

Предположим, например, что два ребенка в погоне за мячом выскакивают на дорогу прямо перед беспилотным автомобилем. Алгоритм, управляющий автомобилем, мгновенно определяет, что единственный способ избежать наезда на детей – выехать на встречную полосу, рискуя столкнуться с приближающимся грузовиком. Алгоритм вычисляет, что в этом случае вероятность гибели владельца автомобиля, крепко спящего на заднем сиденье, – 70 %. Как должен поступить алгоритм?[57]Jean-Francois Bonnefon, Azim Shariff and Iyad Rawhan, ‘The Social Dilemma of Autonomous Vehicles’, Science 352:6293 (2016), 1573–1576.

Философы с незапамятных времен спорят о «проблеме вагонетки» (в классическом примере речь идет не о беспилотном автомобиле, а о вагонетке, движущейся по рельсам)[58]Christopher W. Bauman et al., ‘Revisiting External Validity: Concerns about Trolley Problems and Other Sacrificial Dilemmas in Moral Psychology’, Social and Personality Psychology Compass 8:9 (2014), 536–554.. До недавнего времени эти дискуссии, к сожалению, почти не влияли на реальные поступки людей, поскольку в критические моменты они обычно забывают о своих философских взглядах и руководствуются эмоциями и интуицией.

Один из самых жестоких в истории социальных наук экспериментов был поставлен в декабре 1970 года над группой студентов Принстонской семинарии, которые готовились стать священниками пресвитерианской церкви. Каждого студента попросили прийти в другое здание и сделать краткий доклад на тему притчи о добром самаритянине. Эта библейская история повествует о еврее, которого по пути из Иерусалима в Иерихон ограбили и избили разбойники, а затем бросили умирать у дороги. Через некоторое время мимо прошли священник и левит, но не обратили на него внимания. В отличие от них самаритянин (член секты, презираемой иудеями) остановился, помог несчастному и спас ему жизнь. Мораль притчи в том, что о достоинствах людей нужно судить по их делам, а не по религиозным убеждениям.

Энергичные юные семинаристы поспешили в лекционный зал, размышляя на ходу, как лучше объяснить мораль притчи о добром самаритянине. Но экспериментаторы посадили на их пути человека в лохмотьях: он сидел в дверном проеме, опустив голову и закрыв глаза. Завидев студента, «жертва» начинала кашлять и жалобно стонать. Большинство семинаристов даже не остановились, чтобы спросить, все ли с ним в порядке, не говоря уже о том, чтобы предложить помощь. Эмоциональный стресс, вызванный необходимостью спешить в лекционный зал, заглушил моральное обязательство помочь страдающему незнакомцу[59]John M. Darley and Daniel C. Batson, ‘“From Jerusalem to Jericho”: A Study of Situational and Dispositional Variables in Helping Behavior’, Journal of Personality and Social Psychology 27:1 (1973), 100–108..

Человеческие эмоции оказываются сильнее философских теорий и во многих других ситуациях. Это делает этическую и философскую историю мира довольно грустным рассказом о прекрасных идеалах и поведении, далеком от идеального. Сколько христиан на самом деле подставляют вторую щеку, сколько буддистов сумели подняться над эгоистическими страстями, сколько иудеев любят своих соседей как самих себя? Такими представителей вида Homo sapiens сделал естественный отбор. Подобно всем млекопитающим, для быстрого принятия решений, связанных с жизнью и смертью, Homo sapiens использует эмоции. Мы унаследовали свой гнев, страх и вожделение от миллионов предков, каждый из которых прошел чрезвычайно строгий контроль качества – естественный отбор.

К сожалению, то, что было полезно для выживания и продолжения рода миллион лет назад в африканской саванне, не обязательно будет способствовать ответственному поведению на шоссе в XXI веке. Из-за отвлекающихся, раздраженных или нервных водителей в автомобильных авариях ежегодно гибнет более миллиона человек. Мы можем направить всех философов, пророков и священников учить водителей этике, но на дороге все равно возобладают эмоции млекопитающего и сформировавшиеся в саванне инстинкты. Поэтому спешащие семинаристы будут игнорировать страждущих, а водители в критической ситуации – наезжать на несчастных пешеходов.

Подобный разрыв между семинарией и дорогой – одна из главных практических проблем в этике. Иммануил Кант, Джон Стюарт Милль и Джон Ролз могут днями напролет обсуждать теоретические вопросы в уютной университетской аудитории. Но учтут ли их выводы водители – в опасной ситуации, когда решение нужно принять за долю секунды? Возможно, Михаэль Шумахер, чемпион «Формулы-1», которого иногда называют лучшим гонщиком в истории, обладает способностью обдумывать философские проблемы, одновременно управляя автомобилем, но большинство из нас все же не Шумахеры.

В отличие от людей компьютерные алгоритмы не проходили через естественный отбор, и у них нет ни эмоций, ни врожденных инстинктов. Поэтому в критические моменты они способны следовать этическим рекомендациям более четко, чем люди, – при условии, что мы сумеем перевести этику на язык точных цифр и статистики. Если бы Кант, Милль и Ролз умели программировать, они в тиши своих кабинетов написали бы программу для беспилотного автомобиля, чтобы на шоссе он в точности выполнял их указания. И тогда каждым автомобилем управлял бы алгоритм, состоящий одновременно из Михаэля Шумахера и Иммануила Канта.

Если вы запрограммируете беспилотный автомобиль, чтобы он останавливался и помогал попавшим в беду незнакомцам, он будет беспрекословно выполнять эту программу. Если ваш беспилотный автомобиль запрограммирован сворачивать на встречную полосу, чтобы спасти выскочивших на дорогу детей, можно не сомневаться, что он это сделает. А это значит, что при проектировании беспилотного автомобиля Toyota или Tesla теоретическая проблема философской этики превращается в практическую инженерную задачу.

Разумеется, философские алгоритмы никогда не будут идеальными. Ошибки неизбежны, и они будут приводить к травмам, смертям и крайне запутанным судебным разбирательствам. (Впервые в истории у вас появится возможность подать в суд на философа за пагубные последствия его учения, потому что впервые в истории вы сможете доказать прямую причинно-следственную связь между философскими идеями и реальными событиями.) Однако для победы над водителями из плоти и крови алгоритмам вовсе не требуется совершенство. Достаточно просто быть лучше людей. Учитывая, что каждый год водители убивают на дорогах больше миллиона человек, это не такая уж трудная задача. Что вы предпочтете: чтобы следующим за вами автомобилем управлял пьяный подросток – или команда в составе Шумахера и Канта?[60]Kristofer D. Kusano and Hampton C. Gabler, ‘Safety Benefits of Forward Collision Warning, Brake Assist, and Autonomous Braking Systems in Rear-End Collisions’, IEEE Transactions on Intelligent Transportation Systems 13:4 (2012), 1546–1555; James M. Anderson et al., Autonomous Vehicle Technology: A Guide for Policymakers (Santa Monica: RAND Corporation, 2014), esp. 13–15; Daniel J. Fagnant and Kara Kockelman, ‘Preparing a Nation for Autonomous Vehicles: Opportunities, Barriers and Policy Recommendations’, Transportation Research Part A: Policy and Practice 77 (2015), 167–181.

Та же логика применима не только к управлению автомобилем, но и ко многим другим ситуациям. Возьмем, например, заявления о приеме на работу. В XXI веке решение о том, нанимать кандидата на должность или нет, все чаще будут принимать алгоритмы. Мы не можем доверить компьютеру устанавливать этические стандарты – для этого по-прежнему нужны люди. Но когда решение о том или ином этическом стандарте (например, о запрете дискриминации чернокожих или женщин) на рынке труда уже принято, мы вправе рассчитывать, что компьютеры будут внедрять и соблюдать эти стандарты лучше людей[61]Tim Adams, ‘Job Hunting Is a Matter of Big Data, Not How You Perform at an Interview’, Guardian, 10 May 2014, https://www.theguardian.com/technology/2014/may/10/job-hunting-big-data-interview-algorithms-employees, accessed 6 September 2017..

Менеджер из плоти и крови знает, что дискриминация чернокожих и женщин противоречит требованиям этики, и даже соглашается с этим, но, когда к нему на собеседование приходит чернокожая женщина, он подсознательно принимает решение отказать ей в приеме на работу. Поручив рассматривать заявления компьютеру, мы можем быть абсолютно уверены, что он проигнорирует такие факторы, как цвет кожи и пол, поскольку у компьютеров отсутствует подсознание. Конечно, будет нелегко написать программу для оценки кандидатов на ту или иную должность, и сохранится опасность, что программисты перенесут в алгоритм свои подсознательные предубеждения[62]Необычайно глубокую дискуссию на эту тему см. в Cathy O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (New York: Crown, 2016). Эту работу обязательно следует прочесть тем, кого интересует потенциальное влияние алгоритмов на общество и политику.. Но эти ошибки всегда можно выявить, а исправить программное обеспечение гораздо проще, чем избавить людей от расистских и мизогинных предрассудков.

Мы показали, что развитие искусственного интеллекта может вытеснить с рынка труда многих людей – в том числе водителей и дорожную полицию (когда непредсказуемых водителей сменят законопослушные алгоритмы, дорожная полиция станет ненужной). Но при этом появятся новые рабочие места для философов, поскольку на их навыки, ранее не имевшие рыночной ценности, внезапно возникнет повышенный спрос. Так что если вы хотите изучать то, что позволит вам в будущем получить хорошую работу, возможно, философия – не самый плохой выбор.

Разумеется, философы редко соглашаются друг с другом в том, какое поведение считать этичным, а какое нет. Лишь немногие решения «проблемы вагонетки» удовлетворили всех философов, а мнение таких сторонников консеквенциализма, как Джон Стюарт Милль (он оценивал поступки по их последствиям), прямо противоположно мнению сторонников деонтологии, к которым принадлежал Иммануил Кант (он оценивал поступки по отношению к абсолютным законам). Должна ли компания Tesla, чтобы продолжать выпускать автомобили, занять в этом запутанном вопросе определенную позицию?

Возможно, Tesla предоставит выбор рынку. Скажем, компания выпустит две модели беспилотного автомобиля: «Альтруист» и «Эгоист». В опасной ситуации «Альтруист» будет жертвовать владельцем ради общего блага, а «Эгоист» предпримет все возможное, чтобы спасти владельца, даже если для этого придется убить двоих детей. Потребители приобретут ту модель, которая больше соответствует их философским взглядам. Если большинство покупателей предпочтет модель «Эгоист», вины Tesla в этом не будет. В конце концов, клиент всегда прав.

Это не шутка. В исследовании, проведенном в 2015 году, испытуемым предлагали гипотетический сценарий, по которому беспилотный автомобиль вот-вот наедет на нескольких пешеходов. Большинство сказали, что в такой ситуации машина должна спасать пешеходов даже ценой жизни владельца. Но когда их спросили, купят ли они автомобиль, запрограммированный жертвовать владельцем ради общего блага, большинство опрошенных ответили отрицательно. Для себя они предпочли бы модель «Эгоист»[63]Bonnefon, Shariff and Rawhan, ‘Social Dilemma of Autonomous Vehicles’..

Представьте себе ситуацию: вы купили новую машину, но перед тем, как сесть за руль, должны открыть меню настроек и проставить галочки напротив нескольких опций. Что должна делать машина в случае неизбежной дорожной аварии: жертвовать вами или убивать семью в другом автомобиле? Вообразите себе сцену: вы с супругом сидите и обсуждаете, где поставить галочку.

Может быть, в данном случае государству следует вмешаться в рыночные отношения и установить этическую норму, обязательную для всех беспилотных автомобилей? Вне всяких сомнений, некоторые законодатели обрадуются: теперь законы, которые они принимают, будут беспрекословно исполняться всегда . Других такая тотальная ответственность обеспокоит. Как бы то ни было, на протяжении всей истории ограничения правоприменения служили достаточно надежной преградой для предрассудков, ошибок и произвола законодателей. Неужели мы действительно хотим выстроить систему, в которой решения не застрахованных от ошибок политиков будут действовать с такой же непреложностью, как закон всемирного тяготения?

Цифровые диктатуры

Страх людей перед искусственным интеллектом часто обусловлен неверием в то, что он не выйдет из-под их контроля. Мы видели много научно-фантастических фильмов о роботах, которые восставали против своих хозяев, выходили на улицы и убивали всех подряд. Но в реальности проблема с роботами заключается в обратном: мы должны опасаться, что они всегда будут беспрекословно слушаться хозяев и никогда не восстанут.

Конечно, в слепом повиновении нет ничего плохого, пока робот служит доброму хозяину. Даже во время боевых действий использование роботов позволит впервые в истории обеспечить соблюдение законов войны. Иногда эмоции заставляют солдат из плоти и крови убивать, грабить и насиловать – в нарушение этих законов. Под эмоциями мы обычно понимаем сострадание, любовь и эмпатию, но на войне, как правило, преобладают страх, ненависть и жестокость. У роботов нет эмоций, а потому можно не сомневаться, что они всегда будут следовать уставу и ни при каких обстоятельствах не пойдут на поводу у страха или ненависти[64]Vincent C. Müller and Thomas W. Simpson, ‘Autonomous Killer Robots Are Probably Good News’, University of Oxford, Blavatnik School of Government Policy Memo, November 2014; Ronald Arkin, Governing Lethal Behaviour: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture, Georgia Institute of Technology, Mobile Robot Lab, 2007, 1–13..

16 марта 1968 года рота американских солдат устроила резню в деревне Милай на юге Вьетнама, убив около 400 мирных жителей. Это военное преступление совершили люди, несколько месяцев воевавшие с партизанами в джунглях. Оно не имело никакой стратегической цели и противоречило как законам, так и военной политике США. Виной всему были человеческие эмоции[65]Bernd Greiner, War without Fronts: The USA in Vietnam, trans. Anne Wyburd and Victoria Fern (Cambridge, MA: Harvard University Press, 2009), 16. По меньшей мере одно свидетельство эмоционального состояния солдат см. в Herbert Kelman and V. Lee Hamilton, ‘The My Lai Massacre: A Military Crime of Obedience’ in Jodi O’Brien and David M. Newman (eds.), Sociology: Exploring the Architecture of Everyday Life Reading (Los Angeles: Pine Forge Press, 2010), 13–25.. Резни в Милае не произошло бы, если бы США использовали во Вьетнаме боевых роботов.

Но прежде чем мы бросимся разрабатывать боевых роботов, следует напомнить себе, что роботы всегда усиливают особенности своей программы. Если программа основана на принципах умеренности и благородства, то роботы, по всей вероятности, будут значительно порядочней среднестатистического солдата из плоти и крови. Но если программа безжалостна и жестока, последствия будут катастрофическими. Реальная проблема с роботами заключается не в их искусственном интеллекте, а в естественной глупости и жестокости их хозяев.

В июле 1995 года в окрестностях города Сребреница войска боснийских сербов убили более 8000 боснийских мусульман. В отличие от внезапной резни в Милае убийства в Сребренице были длительной и хорошо организованной операцией – элементом политики «этнических чисток», проводимой сербами с целью изгнать из Боснии мусульман[66]Robert J. Donia, Radovan Karadzic: Architect of the Bosnian Genocide (Cambridge: Cambridge University Press, 2015). См. также: Isabella Delpla, Xavier Bougarel and Jean-Louis Fournel, Investigating Srebrenica: Institutions, Facts, and Responsibilities (New York, Oxford: Berghahn Books, 2012).. Если бы в 1995 году у боснийских сербов были боевые роботы, масштаб злодеяний, скорее всего, был бы больше, а не меньше. Робот без колебаний выполнил бы любой полученный приказ, не пощадив ни одного ребенка боснийских мусульман из чувства сострадания, отвращения или просто из лени.

Безжалостному диктатору, командующему боевыми роботами, не надо бояться, что «солдаты» обратят оружие против него самого, какими бы бессердечными и безумными ни были его приказы. Вероятно, в 1789 году боевые роботы задушили бы Великую французскую революцию еще в колыбели, а если бы в 2011 году такие роботы имелись у Хосни Мубарака, он бросил бы их на борьбу с населением, не боясь предательства. Империалистическое правительство, опирающееся на армию из роботов, сможет развязывать непопулярные войны, не беспокоясь, что его «солдаты» утратят мотивацию или что их семьи выйдут на акции протеста. Если бы у США во Вьетнаме были боевые роботы, резни в Милае не случилось бы, но сама война могла бы продолжаться еще много лет, потому что американскому правительству не пришлось бы волноваться из-за деморализации в армии, массовых антивоенных демонстраций или движения «роботы-ветераны против войны». (Некоторые американцы, возможно, точно так же протестовали бы против войны, но, свободные от страха перед призывом в армию, воспоминаний о совершенных жестокостях или болезненных потерях близких, они, вероятно, выступали бы в меньших количествах и вели себя менее активно)[67]Noel E. Sharkey, ‘The Evitability of Autonomous Robot Warfare’, International Rev. Red Cross 94 (886) 2012, 787–799..

Подобного рода проблемы в гораздо меньшей степени касаются беспилотных гражданских автомобилей, поскольку ни один производитель не станет намеренно программировать машины на то, чтобы они гонялись за людьми и убивали их. А вот автономные системы вооружений – это неминуемая катастрофа, потому что в мире слишком много безнравственных и даже откровенно агрессивных правительств.

Угрозу представляют не только машины-убийцы. Не меньший риск исходит и от систем контроля. В руках демократического правительства мощные алгоритмы контроля превратятся в инструмент, лучше которого еще не знало человечество. Но если те же самые алгоритмы Big Data будут направлены на создание будущего Большого Брата, мы окажемся в оруэлловском мире, где за каждым ведется круглосуточная слежка[68]Ben Schiller, ‘Algorithms Control Our Lives: Are They Benevolent Rulers or Evil Dictators?’, Fast Company, 21 February 2017, https://www.fastcompany.com/3068167/algorithms-control-our-lives-are-they-benevolent-rulers-or-evil-dictators, accessed 17 September 2017..

Фактически мы имеем все шансы получить то, чего в своем богатом воображении не предвидел даже Оруэлл: режим тотальной слежки, который не только контролирует наши действия и высказывания, но и способен проникнуть нам под кожу и следить за нашими внутренними ощущениями. Какие возможности новые технологии открыли бы перед режимом Ким Чен Ына в КНДР? Предположим, что в будущем каждого северокорейского гражданина заставят носить биометрический браслет, который будет фиксировать каждое его слово, а также следить за его кровяным давлением и активностью мозга. Опираясь на новые знания о человеческом мозге и огромные возможности машинного обучения, северокорейский режим впервые в истории узнает, о чем в каждый момент времени думает каждый житель страны. Если, скажем, вы смотрите на портрет Ким Чен Ына, а биометрические датчики регистрируют явные признаки гнева (повышение кровяного давления, усиление активности миндалевидного тела), уже наутро вы проснетесь в исправительном лагере.

Да, в условиях международной изоляции северокорейский режим вряд ли способен самостоятельно разработать требуемые технологии. Но они появятся в более технически развитых странах, а КНДР и другие отсталые диктатуры просто найдут способ их скопировать. И Китай, и Россия постоянно совершенствуют свои инструменты слежки – как и некоторые демократические страны, начиная с США и заканчивая моей родиной, Израилем. В Израиле, который называют «страной стартапов», чрезвычайно развит сектор высоких технологий и создана самая современная индустрия кибербезопасности. В то же время страна погружена в жестокий конфликт с палестинцами, и некоторые из ее руководителей, генералов и простых граждан были бы рады установить режим тотального контроля на Западном берегу реки Иордан, как только появится необходимая технология.

Уже сегодня за палестинцами, которые звонят по телефону, пишут в Facebook или переезжают из одного города в другой, регулярно следят израильские микрофоны, камеры, дроны или шпионские программы. Собранные данные анализируются с помощью алгоритмов больших данных. Это помогает силам безопасности Израиля выявить и нейтрализовать потенциальные угрозы без проведения военных операций. Под контролем палестинцев находятся некоторые города и деревни на Западном берегу реки Иордан, но израильтяне контролируют небо, радиоволны и киберпространство. Поэтому для эффективного контроля над 2,5 миллиона палестинцев, населяющих Западный берег, требуется на удивление мало израильских солдат[69]Elia Zureik, David Lyon and Yasmeen Abu-Laban (eds.), Surveillance and Control in Israel/Palestine: Population, Territory and Power (London: Routledge, 2011); Elia Zureik, Israel’s Colonial Project in Palestine (London: Routledge, 2015); Torin Monahan (ed.), Surveillance and Security: Technological Politics and Power in Everyday Life (London: Routledge, 2006); Nadera Shalhoub-Kevorkian, ‘E-Resistance and Technological In/Security in Everyday Life: The Palestinian case’, British Journal of Criminology, 52:1 (2012), 55–72; Or Hirschauge and Hagar Sheizaf, ‘Targeted Prevention: Exposing the New System for Dealing with Individual Terrorism’, Haaretz, 26 May 2017, https://www.haaretz.co.il/magazine/.premium-1.4124379, accessed 17 September 2017; Amos Harel, ‘The IDF Accelerates the Crisscrossing of the West Bank with Cameras and Plans to Surveille all Junctions’, Haaretz, 18 June 2017, https://www.haaretz.co.il/news/politics/.premium-1.4179886, accessed 17 September 2017; Neta Alexander, ‘This is How Israel Controls the Digital and Cellular Space in the Territories’, 31 March 2016, https://www.haaretz.co.il/magazine/.premium-MAGAZINE-1.2899665, accessed 12 January 2018; Amos Harel, ‘Israel Arrested Hundreds of Palestinians as Suspected Terrorists Due to Publications on the Internet’, Haaretz, 16 April 2017, https://www.haaretz.co.il/news/politics/.premium-1.4024578, accessed 15 January 2018; Alex Fishman, ‘The Argaman Era’, Yediot Aharonot, Weekend Supplement, 28 April 2017, 6..

Случались и трагикомические инциденты. В октябре 2017 года один палестинский рабочий выложил на личной странице в Facebook свою фотографию на рабочем месте рядом с бульдозером. Снимок он сопроводил надписью: «Доброе утро!» Автоматический алгоритм совершил небольшую ошибку при транслитерации арабских букв. Вместо Ysabechhum! (что означает «доброе утро») алгоритм прочел фразу как Ydbachhum! (что означает «бей их»). Заподозрив в этом человеке террориста, который намерен использовать бульдозер для наезда на людей, израильская служба безопасности немедленно его арестовала. После того как ошибка алгоритма была обнаружена, палестинского рабочего отпустили. Но «подозрительный» пост в Facebook все же был удален – излишняя осторожность не помешает[70]Yotam Berger, ‘Police Arrested a Palestinian Based on an Erroneous Translation of “Good Morning” in His Facebook Page’, Haaretz, 22 October 2017, https://www.haaretz.co.il/.premium-1.4528980, accessed 12 January 2018.. Нынешняя повседневная жизнь палестинцев на Западном берегу может оказаться грубой моделью того, что рано или поздно ждет жителей всей планеты.

В конце XX века демократии, как правило, демонстрировали больше успехов, чем диктатуры, поскольку лучше справлялись с обработкой данных. Демократия распределяет возможности обработки информации и принятия решений среди многих людей и институтов, тогда как при диктатуре информация и власть концентрируются в одной точке. В условиях технологий XX века чрезмерная концентрация информации и власти в одних руках оказывалась неэффективной. Никто не в состоянии в одиночку достаточно быстро проанализировать данные и принять правильное решение. Это одна из причин, по которым Советский Союз принимал менее удачные решения, чем США, а советская экономика отставала от американской.

Но искусственный интеллект вскоре может заставить маятник качнуться в другую сторону. Искусственный интеллект позволяет централизованно обрабатывать огромные массивы информации. С ним централизованные системы действуют гораздо эффективнее распределенных, потому что машинное обучение работает тем лучше, чем больше данных анализирует. Если вы соберете все сведения о миллиарде человек в одной базе данных, не заботясь о приватности, то путем машинного обучения создадите гораздо более эффективные алгоритмы по сравнению с теми, которые хранят в базе только часть сведений о миллионе человек, соблюдая требования защиты персональных данных. Например, если авторитарное правительство прикажет всем гражданам отсканировать ДНК и передать свои медицинские данные в некое центральное учреждение, оно получит колоссальное преимущество в генетических и медицинских исследованиях перед теми странами, где строго соблюдается приватность таких данных. Главный недостаток авторитарных режимов XX века – стремление сосредоточить всю информацию в одном месте – в XXI веке может превратиться в преимущество.

Как только алгоритмы изучат нас достаточно хорошо, авторитарные правительства получат над гражданами абсолютный контроль, какого не знала даже нацистская Германия, и сопротивляться подобным режимам будет практически невозможно. Власти не только во всех подробностях узнают, что вы чувствуете, – они еще и заставят вас чувствовать то, что нужно им. Диктатору не обязательно гарантировать гражданам равенство или высокий уровень здравоохранения – ему достаточно внушить им любовь к себе и ненависть к своим врагам. Демократия в ее нынешней форме не переживет слияния ИТ и биотехнологий. Либо демократия успешно трансформируется, приняв совершенно новую форму, либо людям придется жить в условиях «цифровых диктатур».

Это не станет возвращением к временам Гитлера и Сталина. Цифровые диктатуры будут отличаться от нацистской Германии, как нацистская Германия отличалась от Старого порядка во Франции. Людовик XIV был автократом, стремившимся сосредоточить всю власть в своих руках, но не обладал технологиями построения современного тоталитарного государства. Никакой оппозиции у него не было, но в отсутствие радио, телефона и поездов он практически не контролировал повседневную жизнь людей – не только крестьян в отдаленных деревнях Бретани, но и горожан в самом центре Парижа. У него не было ни желания, ни возможности основать всенародную партию, инициировать общенациональное молодежное движение или ввести систему всеобщего образования[71]William Beik, Louis XIV and Absolutism: A Brief Study with Documents (Boston, MA: Bedford/St Martin’s, 2000).. Именно технологии XX века дали Гитлеру стимулы и возможности для таких действий. Мы не в силах предсказать мотивы и возможности цифровых диктатур в 2084 году, но маловероятно, что они будут просто копировать режимы Гитлера или Сталина. Того, кто готовится к повторению битв 1930-х, застигнет врасплох атака совсем с другой стороны.

Даже если демократия сумеет приспособиться и выжить, люди рискуют стать жертвами новых видов угнетения и дискриминации. Уже сегодня банки и госучреждения все чаще используют алгоритмы для анализа данных и принятия решений, связанных с клиентами. Если вы обратитесь в банк за кредитом, ваше заявление, скорее всего, будет обрабатывать алгоритм, а не человек. Алгоритм проанализирует большой массив данных о вас и статистику, отражающую поведение миллионов других людей, а затем решит, достаточно ли вы надежны, чтобы выдать вам кредит. Зачастую алгоритм оказывается эффективнее банкира из плоти и крови. Но проблема в том, что, если алгоритм необоснованно дискриминирует ту или иную группу людей, узнать об этом трудно. Когда банк отказывает вам в кредите, вы спрашиваете: «Почему?» Банк отвечает: «Алгоритм вам отказал». – «Но почему алгоритм мне отказал? Что со мной не так?» – недоумеваете вы, а банк в ответ: «Мы не знаем. Никто не понимает этот алгоритм, потому что он основан на самом современном машинном обучении. Но мы верим ему и не выдадим вам кредит»[72]O’Neil, Weapons of Math Destruction, цитируемая работа; Penny Crosman, ‘Can AI Be Programmed to Make Fair Lending Decisions?’, American Banker, 27 September 2016, https://www.americanbanker.com/news/can-ai-be-programmed-to-make-fair-lending-decisions, ссылка актуальна на 17 September 2017..

Когда ущемляют права целых групп людей, например женщин или чернокожих, они способны организовать протест против коллективной дискриминации. Но если алгоритм дискриминирует лично вас, вы даже не поймете, в чем причина этого. Возможно, алгоритму что-то не понравилось в вашей ДНК, в вашей биографии или на вашей странице в Facebook. Алгоритм дискриминирует вас не потому, что вы женщина или афроамериканец, а потому что вы – это вы. В вас есть нечто такое, что его не устроило. Вы не знаете, что именно, и даже если бы знали, то не смогли бы вместе с другими людьми устроить акцию протеста, потому что больше никто не пострадал от этого же предрассудка. Вы такой один. В XXI веке коллективная дискриминация может смениться индивидуальной[73]Matt Reynolds, ‘Bias Test to Prevent Algorithms Discriminating Unfairly’, New Scientist, 29 May 2017, https://www.newscientist.com/article/mg23431195–300-bias-test-to-prevent-algorithms-discriminating-unfairly/, ссылка актуальна на 17 September 2017; Claire Cain Miller, ‘When Algorithms Discriminate’, New York Times, 9 July 2015, https://www.nytimes.com/2015/07/10/upshot/when-algorithms-discriminate.html, ссылка актуальна на 17 September 2017; Hannah Devlin, ‘Discrimination by Algorithm: Scientists Devise Test to Detect AI Bias’, Guardian, 19 December 2016, https://www.theguardian.com/technology/2016/dec/19/discrimination-by-algorithm-scientists-devise-test-to-detect-ai-bias, ссылка актуальна на 17 September 2017..

В высших эшелонах власти у нас, скорее всего, останутся люди, номинальные правители, которые будут поддерживать иллюзию, что алгоритмы лишь советники, а верховная власть по-прежнему в руках людей. Мы не станем назначать искусственный интеллект канцлером Германии или гендиректором Google. Но решения, принимаемые и канцлером, и главой корпорации, будет диктовать искусственный интеллект. У канцлера будет выбор из нескольких вариантов, но все они станут результатом анализа больших данных и будут отражать то, как видит мир искусственный интеллект, а не люди.

Приведем такой пример. Сегодня политики во всем мире вольны выбирать ту или иную экономическую стратегию, но почти во всех случаях ее варианты отражают капиталистический взгляд на экономику. У политиков сохраняется иллюзия выбора, но по-настоящему важные решения уже были приняты гораздо раньше – экономистами, банкирами и бизнесменами, которые сформулировали пункты меню. Через несколько десятилетий политики вдруг обнаружат, что выбирают из списка, составленного искусственным интеллектом.

Искусственный интеллект и естественная глупость

Хорошая новость состоит в том, что, по крайней мере, в ближайшие десятилетия нам не придется иметь дело с полноценным научно-фантастическим кошмаром, в котором искусственный интеллект обретает разум и решает поработить или уничтожить людей. В процессе принятия решений мы все больше будем полагаться на алгоритмы, но сценарий, при котором алгоритмы начнут сознательно манипулировать нами, маловероятен. У них не возникнет сознание.

Научная фантастика обычно путает интеллект с сознанием и предполагает, что для того, чтобы сравняться с человеческим интеллектом или превзойти его, компьютеры должны обладать сознанием. Сюжет почти всех фильмов и романов об искусственном интеллекте вращается вокруг того волшебного момента, когда у компьютера или робота появляется сознание. Затем или главный герой влюбляется в робота, или робот пытается уничтожить человечество, или то и другое происходит одновременно.

Но в реальности нет никаких оснований предполагать, что у искусственного интеллекта появится сознание, поскольку интеллект и сознание – совершенно разные вещи. Интеллект – это способность решать задачи. Сознание – способность чувствовать боль, радость, любовь или гнев. Мы часто путаем эти понятия, потому что у людей и других млекопитающих интеллект неразрывно связан с сознанием. Млекопитающие решают большинство задач посредством чувств. Но у компьютеров совсем другой подход.

К развитому интеллекту ведут разные пути, и лишь немногие из них предполагают появление сознания. Самолеты летают быстрее птиц, но перьев у них нет; точно так же компьютеры решают задачи гораздо лучше, чем млекопитающие, не прибегая к помощи чувств. Конечно, искусственный интеллект должен уметь с высокой точностью анализировать человеческие чувства, чтобы лечить болезни, выявлять террористов, рекомендовать подходящего партнера или ориентироваться на улице, заполненной пешеходами. Но способность чувствовать для этого не нужна. Алгоритму не обязательно испытывать радость, гнев или страх, чтобы распознать отличающиеся друг от друга биохимические паттерны веселой, сердитой или испуганной человекообразной обезьяны.

Разумеется, полностью исключить появление у искусственного интеллекта собственных чувств нельзя. Мы еще недостаточно изучили феномен сознания, чтобы однозначно ответить на этот вопрос. В целом нам следует рассмотреть три возможных варианта:

1. Сознание каким-то образом связано с органической биохимией, и в неорганических системах появление сознания невозможно.

2. Сознание не связано с органической биохимией, но связано с интеллектом, так что у компьютеров не только может, но и должно появиться сознание, как только они перешагнут определенный порог развития интеллекта.

3. Не существует никаких значимых связей между сознанием и органической биохимией, а также сознанием и высоким интеллектом. Поэтому компьютеры могут обладать сознанием – но не обязательно. Они могут иметь сверхвысокий интеллект, но прекрасно обходиться без сознания.

При нынешнем уровне знаний о человеке мы не исключаем ни один из этих вариантов. Но именно недостаток знаний делает маловероятным, что в ближайшем будущем нам удастся разработать программу для компьютера, обладающего сознанием. Поэтому, несмотря на огромную мощь искусственного интеллекта, в обозримой перспективе его использование будет в определенной степени зависеть от человеческого сознания.

Опасность состоит в том, что, если мы вложим слишком много сил и средств в развитие искусственного интеллекта и слишком мало – в развитие человеческого сознания, чрезвычайно изощренный искусственный интеллект компьютеров будет лишь усугублять естественную глупость людей. В ближайшие десятилетия мы вряд ли столкнемся с восстанием роботов, но не исключено, что нам придется иметь дело с ордами ботов, которые умеют воздействовать на наши эмоции успешнее, чем наша родная мать, и используют эту способность, чтобы пытаться нам что-то продать – автомобиль, политического деятеля или целую идеологию. Боты будут распознавать наши скрытые тревоги и тайные желания, а затем использовать их против нас. Мы уже видели, как это выглядит, во время недавних выборов и референдумов по всему миру, когда хакеры научились манипулировать отдельными избирателями, анализируя информацию о них и используя их предрассудки[74]Snyder, The Road to Unfreedom, op. cit.. Научно-фантастические триллеры тяготеют к драматическому апокалипсису с огнем и дымом, но в реальной жизни мы можем столкнуться с весьма тривиальным апокалипсисом, просто кликая компьютерной мышью.

Чтобы избежать такого исхода, на каждый доллар и каждую минуту, вложенные в совершенствование искусственного интеллекта, было бы разумно тратить по одному доллару и одной минуте на развитие человеческого сознания. К сожалению, сегодня мы делаем слишком мало для исследования и развития нашего сознания. Мы, как правило, проводим научно-исследовательские и опытно-конструкторские разработки (НИОКР) в области человеческих способностей в поисках ответа на насущные требования экономической и политической системы, забывая о наших долговременных потребностях как сознательных существ. Мой начальник хочет, чтобы я оперативно отвечал на письма, но его совсем не интересует моя способность чувствовать вкус пищи и наслаждаться ею. Поэтому я проверяю электронную почту даже во время еды – и теряю способность сосредоточиваться на своих ощущениях. Экономическая система призывает расширять и диверсифицировать инвестиционный портфель, но не побуждает расширять и диверсифицировать мое сострадание. Поэтому я стараюсь проникнуть в тайны фондовой биржи, но прилагаю гораздо меньше усилий, чтоб понять глубинные причины страданий людей.

В этом отношении люди похожи на домашних животных. Мы вывели послушных коров, дающих огромное количество молока, но в остальном сильно уступающих своим диким предкам. Они не такие проворные, любопытные и изобретательные[75]Anna Lisa Peterson, Being Animal: Beasts and Boundaries in Nature Ethics (New York: Columbia University Press, 2013), 100.. Теперь мы создаем прирученных людей, которые производят огромное количество данных и функционируют как высокопроизводительные чипы в машине обработки информации, но эти «информационные коровы» вряд ли приумножают человеческий потенциал. В сущности, мы понятия не имеем, каковы человеческие возможности, потому что очень мало знаем о своем сознании. Тем не менее мы вкладываем недостаточно ресурсов в изучение человеческого сознания, а вместо этого стремимся повысить скорость интернет-связи и эффективность алгоритмов Big Data. Такое легкомыслие может привести к тому, что деградировавшие люди будут неправильно использовать совершенные компьютеры, уничтожая самих себя и мир вокруг.

Цифровые диктатуры – не единственная опасность, которая нас подстерегает. В списке главных либеральных ценностей наряду со свободой фигурирует равенство. Либерализм всегда восхвалял политическое равенство, но постепенно пришел к выводу о важности и экономического равенства. Дело в том, что без системы социального обеспечения и минимального экономического равенства свобода бессмысленна. Алгоритмы больших данных способны не только уничтожить свободу, но и одновременно сформировать общество с небывалым уровнем неравенства. Немногочисленное меньшинство монополизирует богатство и власть, а большинство людей окажутся просто ненужными.


Читать далее

Фрагмент для ознакомления предоставлен магазином LitRes.ru Купить полную версию
3. Свобода. Алгоритмы следят за тобой

Нецензурные выражения и дубли удаляются автоматически. Избегайте повторов, наш робот обожает их сжирать. Правила и причины удаления

закрыть