FTC усиливает контроль за заявлениями об ИИ и борется с AI-washing
Федеральная торговая комиссия США в начале 2026 года внедрила новые меры по борьбе с вводящими в заблуждение заявлениями о возможностях искусственного интеллекта.

В январе–феврале 2026 года Федеральная торговая комиссия США (FTC) зафиксировала новый подход к регулированию рынка искусственного интеллекта. Основное внимание уделяется противодействию маркетинговым злоупотреблениям и практике AI-washing, когда компании преувеличивают уровень автоматизации и интеллектуальности своих продуктов.
По данным FTC, именно такие вводящие в заблуждение заявления представляют наибольшие риски для потребителей и корпоративных клиентов. Представитель комиссии подчеркнул: "Наша задача — не сдерживать инновации, а обеспечить, чтобы заявления об ИИ были точными, проверяемыми и не вводили рынок в заблуждение".
Этот сдвиг в регулировании отражает признание ИИ зрелой коммерческой технологией, к которой применяются стандартные требования деловой добросовестности. В то же время давление на технологические компании усиливается.
Исследование World Benchmarking Alliance показало, что лишь 38% крупнейших технологических корпораций публикуют принципы этичного использования ИИ, а ни одна из 200 ведущих компаний не раскрывает полноценную оценку влияния ИИ на права человека. В 2025 году собственные принципы ИИ впервые опубликовали всего 9 компаний, тогда как в 2024 году таких было 19.
Эксперты отмечают, что добровольные инициативы в области ответственности ИИ теряют импульс без внешнего давления регуляторов и инвесторов. При этом более 60% глобальной облачной инфраструктуры контролируется ограниченным числом технологических корпораций, что усиливает этические и экономические риски.
В 2025–2026 годах мировые инвестиции в искусственный интеллект превысили 500 млрд долларов, что подчеркивает масштаб и значимость отрасли. В 2026 году точность заявлений об ИИ становится предметом регуляторного контроля и фактором репутационных рисков для бизнеса.
Для компаний 2026 год становится переломным моментом: публичная отчётность по ИИ воспринимается инвесторами как признак зрелого управления, а регулирование ИИ вступает в практическую фазу с акцентом на проверяемость, подотчётность и доверие. Чем масштабнее использование ИИ, тем выше требования к ответственности и тем дороже обходится её отсутствие.