Примерно в то время, когда Дж. Роберт Оппенгеймер узнал, что Хиросима была уничтожена, он начал глубоко сожалеть о своей роли в создании этой бомбы. В какой-то момент при встрече с президентом Трумэном Оппенгеймер заплакал и выразил сожаление. Трумэн назвал его плаксой и сказал, что больше никогда не хочет его видеть. И Кристофер Нолан надеется, что когда зрители Силиконовой долины в его фильме «Оппенгеймер» (выходит 21 июня по всему миру, но не в России) увидят его интерпретацию всех этих событий, они тоже увидят там что-то от себя.

Вчера после показа фильма Оппенгеймера в отеле Whitby Кристофер Нолан присоединился к группе ученых и Кай Берду, одному из авторов книги, на которой основан Оппенгеймер, чтобы поговорить о фильме «Американский Прометей». Аудитория была заполнена в основном учеными, которые посмеивались над шутками о самомнении физиков в фильме, но там было и несколько репортеров, которые смогли поделиться тем, что там произошло.

Они выслушали слишком краткие дебаты об успехе ядерного сдерживания, и доктор Том Мейсон, нынешний директор Лос-Аламоса, говорил о том, сколько нынешних сотрудников лаборатории снялись в фильме, потому что большая его часть снималась поблизости. Но ближе к концу беседы модератор Чак Тодд из Meet the Press спросил Нолана, что, по его мнению, Силиконовая долина может извлечь из фильма.

«Я думаю, что я хотел бы, чтобы они научились концепции ответственности», — сказал он Тодду.

Затем он пояснил: «Когда вы внедряете инновации с помощью технологий, вы должны убедиться, что существует подотчетность». Он имел в виду широкий спектр технологических инноваций, которые были приняты Кремниевой долиной, в то время как те же самые компании отказывались признавать вред, который они неоднократно приносили.

«Рост компаний за последние 15 лет, использующих такие слова, как «алгоритм», не зная, что они означают в каком-либо осмысленном, математическом смысле. Они просто не хотят брать на себя ответственность за то, что делает этот алгоритм».

Он продолжил:

«И когда это применяется к ИИ? Это ужасно. Ужасающе... Не в последнюю очередь потому, что по мере того, как системы ИИ внедряются в оборонную инфраструктуру, в конечном итоге они будут оснащены ядерным оружием, и если мы позволим людям говорить, что это отдельная сущность от человека, чье владение, программирование, использование ИИ, то мы обречены. Кто-то должен принять за это ответственность. Мы должны привлекать людей к ответственности за то, что они делают с имеющимися у них инструментами».

Хотя Нолан не упомянул какую-то конкретную компанию, нетрудно понять, о чем он говорит. Такие компании, как Google, Meta* и даже Netflix, сильно зависят от алгоритмов для привлечения и удержания аудитории, и такая зависимость часто приводит к непредвиденным и часто ужасным последствиям.

Вероятно, самым заметным и поистине ужасным является вклад Meta* в геноцид в Мьянме, когда тогдашние алгоритмы Facebook* и безрассудная погоня за прибылью в значительной степени способствовали зверствам, совершенным военными Мьянмы против народа рохинджа в 2017 году.

«Когда я разговариваю с ведущими исследователями в области ИИ, они прямо сейчас называют это моментом Оппенгеймера», — сказал Нолан. «Они смотрят на его историю, чтобы сказать, каковы обязанности ученых, разрабатывающих новые технологии, которые могут иметь непредвиденные последствия».
«Как вы думаете, Силиконовая долина думает об этом прямо сейчас?» — спросил его Тодд.
«Говорят, что да», — ответил Нолан. «И это, — усмехнулся он, — это полезно. По крайней мере, в разговоре. И я надеюсь, что этот мыслительный процесс продолжится. Я не говорю, что история Оппенгеймера предлагает простые ответы на эти вопросы. Но, по крайней мере, это служит предостережением».

*Meta, Facebook – запрещены на территории России.