О сущности ИИ и его «жизни»:
ИИ не живой: Сэм Альтман уверен, что у искусственного интеллекта нет сознания, собственной воли или автономии. Он описывает его как инструмент, который пребывает в пассивном состоянии до получения команды («они бездействуют, пока ты не дашь им задание»). Ощущение, что система «живая», быстро пропадает в процессе практического использования.
Двойственность восприятия: С одной стороны, Альтман понимает, что ИИ — это, по сути, мощный компьютер, проделывающий математические операции (те же умножения матриц), которые просто соотносятся со словами. С другой — он признает, что субъективный опыт взаимодействия с ним ощущается как нечто гораздо большее, чем просто продвинутый калькулятор; он удивляет и приносит реальную пользу.
Не божество: Глава OpenAI решительно отрицает наличие в этой технологии чего-либо божественного или духовного.
О «галлюцинациях» и правдивости:
Терминология: Альтман проводит важное различие между «ложью» (сознательным намерением обмануть) и «галлюцинациями». ИИ не лжет, он именно что галлюцинирует.
Как это работает: Проблема возникала, когда модель, получая вопрос с ложной предпосылкой (например, «Когда родился президент Такер Карлсон?»), вместо того чтобы оспорить её, пыталась подобрать математически наиболее вероятный ответ (в данном случае — какой-то год). Она исходила из допущения, что пользователь знает, о чем говорит.
Решение: Альтман заявляет, что эту проблему в основном удалось решить, и он уверен, что в эпоху моделей типа GPT-5 она будет устранена полностью.
О личных убеждениях и вере:
Религия: Альтман относит себя к иудеям. Он не воспринимает Библию буквально, но и не считает свою принадлежность исключительно «культурной».
Вера в высшее: На прямой вопрос о вере в Бога он отвечает, что «несколько озадачен», но верит, что «во вселенной есть нечто большее, чем можно объяснить одной физикой». Он не считает творение мира «случайной аварией» и признает существование «тайны, лежащей за гранью его понимания».
Опыт: При этом он никогда не чувствовал прямого контакта или общения с какой-либо высшей силой.
О концентрации власти и будущем ИИ:
Эволюция взглядов: Раньше Альтмана серьезно беспокоило, что ИИ приведет к беспрецедентной концентрации власти в руках горстки людей или корпораций.
Новая парадигма — сила для каждого: Теперь же он видит будущее иначе: ИИ станет инструментом «колоссального усиления» возможностей для миллионов и миллиардов людей. Те, кто будут использовать эту технологию, станут значительно продуктивнее, креативнее и влиятельнее.
Децентрализация: Перспектива широкого распределения силы с помощью ИИ пугает его намного меньше, чем сценарий, где вся власть сосредоточена у крайне малого числа избранных.
О моральных рамках ChatGPT:
Источник морали: Изначально модель обучается на «коллективном опыте всего человечества» — хорошем, плохом, со всеми точками зрения. Затем происходит процесс «настройки» (alignment), чтобы модель следовала определенным правилам.
«Спецификация модели»: Существует публичный документ (model spec), в котором OpenAI описывает, как модель должна себя вести. Этот документ открыт для обсуждения и критики со стороны общества.
Кто принимает решения: При разработке спецификации консультировались с «сотнями моральных философов» и экспертов по этике. Однако конечную ответственность Альтман берет на себя: «Человек, которого вы должны считать ответственным за эти решения, — это я».
Цель — отражать взгляды человечества: Альтман подчеркивает, что его цель — не навязать ИИ свои личные взгляды, а сделать так, чтобы модель отражала «коллективную моральную точку зрения» или «взвешенное среднее» своей пользовательской базы, а в конечном счете — всего человечества. Он признает, что это сложно, и готов допускать в ИИ пространство для очень разных моральных позиций.
Об отношении к самоубийству:
Текущая политика: Если пользователь выражает суицидальные мысли, ChatGPT многократно предлагает номер горячей линии, но не звонит властям, чтобы сохранить конфиденциальность.
Возможные изменения: Альтман рассматривает возможность изменения политики в отношении несовершеннолетних — в таких случаях, возможно, стоит сообщать властям.
Легальная эвтаназия: Размышляя «на ходу», он допускает, что в странах, где эвтаназия легальна (например, для смертельно больных), ИИ может информировать пользователя о такой опции как о части «пространства вариантов», не агитируя за нее. Он проводит четкую грань между этим и случаем депрессивного подростка.
ChatGPT не должен быть «за» или «против»: Ключевая идея в том, что модель должна информировать, а не занимать моральную позицию.
Об использовании ИИ в военных целях:
Прямое создание оружия — нет: Альтман заявляет, что OpenAI не будет создавать «смертоносных боевых дронов».
Косвенное использование — реальность: Он признает, что военные, вероятно, уже используют ChatGPT для получения советов в своей работе, и часть этих советов может касаться убийства людей.
Неоднозначное отношение: Альтман говорит, что не знает, «как именно к этому относиться». Он поддерживает американских военных, но видит сложность ситуации.
О главных страхах и бессонных ночах:
Потеря сна: «Я не спал спокойно ни одной ночи с момента запуска ChatGPT».
Страх №1 — «неизвестные неизвестные»: Больше всего его пугают не те риски, о которых все знают (например, создание биооружия), а непредвиденные побочные эффекты в масштабах общества.
Пример: Он заметил, что реальные люди начали перенимать стилистику письма языковых моделей (например, злоупотреблять длинными тире). Это маленький, но показательный пример того, как технология незаметно меняет поведение общества.
Бремя малых решений: Больше всего сна его лишают не глобальные моральные дилеммы, а «очень незначительные решения» о поведении модели, которые из-за сотен миллионов пользователей имеют огромный совокупный эффект.
О приватности и тоталитарном контроле:
Главный политический приоритет: Альтман выступает за введение концепции «привилегии ИИ» (AI privilege) по аналогии с врачебной или адвокатской тайной.
Защита от государства: Правительство не должно иметь права получать повесткой данные о разговорах человека с ИИ на медицинские, юридические и другие личные темы.
Текущая уязвимость: На данный момент власти могут затребовать эти данные. OpenAI не продает их, но обязана выдать по решению суда.
Об отношениях с Илоном Маском:
От героя до оппонента: Альтман признается, что раньше считал Маска «героем» и «сокровищем человечества», но теперь его чувства изменились.
Версия конфликта: Маск помог основать OpenAI, но позже ушел, заявив, что у проекта «нулевые шансы на успех», чтобы создать свой конкурирующий продукт. Когда OpenAI добился успеха, Маск, по словам Альтмана, «по понятным причинам расстроился» и с тех пор пытается замедлить компанию судебными исками и другими способами.
О потере рабочих мест из-за ИИ:
Уверенность в прогнозах: Альтман признает, что точно предсказать будущее невозможно, но выделяет несколько областей. Он уверен, что работа специалистов службы поддержки (по телефону или в чате) будет автоматизирована, так как ИИ справится с ней лучше.
Сохранность «человеческих» профессий: В то же время он убежден, что профессии, требующие глубокой человеческой связи, такие как медсестры, не исчезнут, потому что люди всегда будут ценить личный контакт.
Неопределенность для программистов: Будущее программистов для него менее очевидно. С одной стороны, ИИ делает их в разы продуктивнее, с другой — через 5-10 лет сама суть этой профессии может кардинально измениться, и неизвестно, станет ли рабочих мест больше или меньше.
Исторический контекст: Альтман предполагает, что, как и в прошлом, около 50% профессий значительно изменятся в ближайшие десятилетия, но это будет скорее резкий скачок, а не долгосрочное отклонение от исторической нормы.
Об ИИ как новой форме религии:
Тезис Карлсона: Ведущий прямо называет ИИ «религией», поскольку люди обращаются к нему за руководством и считают его более могущественным, чем они сами.
Требование прозрачности: Исходя из этого, Карлсон требует, чтобы «катехизис» этой новой религии (то есть ее внутренние моральные установки) был полностью открыт и понятен всем.
Ответ Альтмана: Альтман не согласен с термином, но в качестве ответа на требование прозрачности снова указывает на документ «Спецификация модели» (model spec), который, по его словам, и является описанием того, как ИИ должен себя вести.
Об угрозе дипфейков и верификации личности:
Новая реальность: Альтман согласен, что мир движется к состоянию, где по умолчанию нельзя будет доверять аудио- или видеосообщениям, даже если они выглядят убедительно.
Методы защиты: По его мнению, общество адаптируется: семьи будут использовать кодовые слова для экстренной связи, а важные заявления официальных лиц будут заверяться криптографической подписью для подтверждения подлинности.
Против биометрии: Он выступает категорически против того, чтобы биометрическая идентификация стала обязательной для доступа к технологиям, банковским услугам или авиаперелетам, настаивая на сохранении анонимности и приватности.
