OpenAI в понедельник опубликовал то, что он называет «экономическим планом» для ИИ: живой документ, который излагает политику, на которую, по мнению компании, она может опираться с правительством США и его союзниками.
План, который включает в себя форвард от Криса Лехана, вице-президента OpenAI по глобальным вопросам, утверждает, что США должны действовать, чтобы привлечь миллиарды финансирования для чипов, данных, энергии и талантов, необходимых для «победы на ИИ».
"Сегодня, в то время как некоторые страны ототкладывают ИИ и его экономический потенциал, - написал Лехейн, - правительство США может проложить путь для своей индустрии ИИ, чтобы продолжить глобальное лидерство страны в области инноваций, защищая при этом национальную безопасность".
OpenAI неоднократно призывала правительство США принять более существенные меры в отношении искусственного интеллекта и инфраструктуры для поддержки развития технологии. Федеральное правительство в значительной степени оставило регулирование ИИ на удержание штатов, ситуацию, которую OpenAI описывает в чертеже как неудержимую.
Только в 2024 году законодатели штатов внесли почти 700 законопроектов, связанных с искусственным интеллектом, некоторые из которых противоречат другим. Например, Закон Техаса об ответственном управлении ИИ налагаетна разработчиков моделей искусственного интеллекта с открытым исходным кодом требования к ответственности.
Генеральный директор OpenAI Сэм Альтман также раскритиковал существующие федеральные законы, такие как Закон о CHIPS, который был направлен на возрождение полупроводниковой промышленности США путем привлечения внутренних инвестиций от ведущих мировых производителей чипов. В недавнем интервью Bloomberg Альтман сказал, что Закон CHIPS «[не] был] таким эффективным, как кто-либо из нас надеялся», и что он считает, что у администрации Трампа есть «реальная возможность» «сделать что-то гораздо лучшее в качестве последующих действий».
"В чем я действительно глубоко согласен с [Трампом], это то, как дико трудно стало строить вещи в Соединенных Штатах", - сказал Альтман в интервью. «Электростанции, центры обработки данных, все такое. Я понимаю, как накапливается бюрократическая крафт, но в целом это не помогает стране. Это особенно не полезно, когда вы думаете о том, что должно произойти для того, чтобы США возглавили ИИ. И США действительно должны возглавить ИИ».
Чтобы подпитывать центры обработки данных, необходимые для разработки и запуска ИИ, план OpenAI рекомендует «резко» увеличить федеральные расходы на электроэнергию и передачу данных, а также значимое создание «новых источников энергии», таких как солнечная энергия, ветряные электростанции и ядерная энергия. OpenAI — вместе со своими конкурентами по искусственному интеллекту — ранее поддерживала проекты в области ядерной энергетики, утверждая, что они необходимы для удовлетворения потребностей в электроэнергии серверных ферм следующего поколения.
Технологические гиганты Meta и AWS столкнулись с загвоями в своих ядерных усилиях, хотя и по причинам, не имеюм ничего общего с самой ядерной энергетикой.
В ближайшей перспективе план OpenAI предлагает правительству «разработать передовую практику» для развертывания моделей для защиты от злоупотребления, «оправить» взаимодействие индустрии искусственного интеллекта с органами национальной безопасности и разработать экспортный контроль, который позволяет обмениваться моделями с союзниками, «ограничивая» их экспорт «вражескими странами». Кроме того, план поощряет, чтобы правительство делилось определенной информацией, связанной с национальной безопасностью, такой как брифинги об угрозах индустрии искусственного интеллекта, с поставщиками и помогает поставщикам обеспечить ресурсы для оценки своих моделей рисков.
"Подход федерального правительства к безопасности и охраны пограничной модели должен упростить требования", - говорится в чертеже. «Ответственный экспорт ... моделей нашим союзникам и партнерам поможет им создать свои собственные экосистемы ИИ, включая их собственные сообщества разработчиков, внедряющие инновации с помощью ИИ и распространяющие его преимущества, а также строить ИИ на технологии США, а не технологии, финансируемые Коммунистической партией Китая».
OpenAI уже считает несколько правительственных ведомств США в качестве партнеров, и - если его план наберет популярность среди политиков - стоит добавить больше. Компания заключила сделки с Пентагоном по работе по кибербезопасности и другим связанным с ними проектам, и она объединилась с оборонным стартапом Anduril, чтобы предоставить свои технологии искусственного интеллекта системам, которые американские военные используют для противодействия атакам беспилотников.
В своем плане OpenAI призывает к разработке стандартов, «признанных и уважаемых» другими странами и международными органами от имени частного сектора США. Но компания не одобрит обязательные правила или указы. "[Правительство может создать] определенный, добровольный путь для компаний, которые разрабатывают [ИИ] для работы с правительством для определения оценок моделей, тестовых моделей и обмена информацией для поддержки гарантий компаний", - говорится в чертеже.
Администрация Байдена приняла аналогичный шаг со своим указом об ИИ, который стремился ввести в действие несколько добровольных стандартов безопасности и защиты ИИ высокого уровня. Указ учредил США. Институт безопасности ИИ (AISI), федеральный правительственный орган, который изучает риски в системах искусственного интеллекта, который сотрудничает с компаниями, включая OpenAI, для оценки безопасности модели. Но Трамп и его союзники пообещали отменить указ Байдена, подвергая его кодификацию - и AISI - риску быть отмененными.
План OpenAI также касается авторских прав в том, что касается искусственного интеллекта, что является горячей темой. Компания доводит до того, что разработчики искусственного интеллекта должны иметь возможность использовать «общественную информацию», включая контент, защищенный авторским правом, для разработки моделей.
OpenAI, наряду со многими другими компаниями по искусственному интеллекту, обучает моделей на публичных данных со всего Интернета. Компания имеет соглашения о лицензировании с рядом платформ и издателей и предлагает создателям ограниченные способы «отказаться» от разработки своей модели. Но OpenAI также заявила, что было бы «невозможно» обучать модели ИИ без использования материалов, защищенных авторским правом, и ряд создателей подали в суд на компанию за якобы обучение по их работам без разрешения.
"Другие субъекты, включая разработчиков в других странах, не прилагают никаких усилий для уважения или взаимодействия с владельцами прав на ИС", - говорится в чертеже. «Если США и страны-единомышленники не устранят этот дисбаланс с помощью разумных мер, которые помогают продвигать ИИ в долгосрочной перспективе, тот же контент все равно будет использоваться для обучения ИИ в других местах, но на благо других стран. [Правительство должно обеспечить] то, чтобы ИИ мог учиться на универсальной, общедоступной информации, как это делают люди, а также защищать создателей от несанкционированных цифровых копий».
Еще предстоит выяснить, какие части плана OpenAI, если таковые есть, влияют на законодательство. Но предложения являются сигналом о том, что OpenAI намерена оставаться ключевым игроком в гонке за объединение США. Политика ИИ.
В первой половине прошлого года OpenAI более чем утроил свои расходы на лоббирование, потратив 800 000 долларов США против 260 000 долларов США за весь 2023 год. Компания также привлекла бывших правительственных лидеров в свои руководящие должности, включая бывшего чиновника Министерства обороны Сашу Бейкера, главу АНБ Пола Накасоне и Аарона Чаттерджи, бывшего главного экономиста Министерства торговли при президенте Джо Байдене.
По мере найма и расширения своего отдела по глобальным вопросам OpenAI более активно высказывается о том, какие законы и правила ИИ она предпочитает, например, отдавая свой вес в пользу законопроектов Сената, которые создают федеральный нормотворческий орган по ИИ и предоставляют федеральные стипендии для исследований и разработок в области ИИ. Компания также выступила против законопроектов, в частности, калифорнийского SB 1047, утверждая, что это подавит инновации искусственного интеллекта и вытолкнет таланты.