На днях вышел самый большой, полный и авторитетный разбор ИИ-трендов от известного аналитика Мэри Микер. Микер — венчурный инвестор, фаундер BOND, бывший аналитик по ценным бумагам Morgan Stanley. Ее обзор ИИ занял целых 350 страниц, и среди достижений были указаны впечатляющие числа. Например, AI-редактор кода Cursor увеличил годовой доход с $1 млн до $300 млн всего за 25 месяцев. Однако такой невероятный технологический (и финансовый) рывок возможен благодаря доступу к данным, а за данные идет настоящая война — как между корпорациями и пользователями, так и на уровне государственного регулирования. Техногиганты лоббируют удобные законы, а возмущенные граждане подают в суд.
В этой битве данных уже есть и потерпевшие. Мы разобрались, как разные государства регулируют доступ технологических гигантов к информации и как рынок и разные отрасли реагируют на наступление новой AI-эры.
Технооптимисты потирают руки: «Большой прекрасный закон» Дональда Трампа включает в себя десятилетний запрет на регулирование ИИ-технологий законодателями штатов.
Это означает, что, какие бы сюрпризы ни подкинул научно-технический прогресс, например, жителям штата Колорадо, полагаться они могут только на федеральное законодательство.
А оно после щедрых пожертвований Сэма Альтмана (OpenAI) и его коллег на политические кампании не торопится ничего ограничивать.
На другой стороне океана Европейский союз традиционно осторожничает. Здесь готовят общий закон, вводящий четкие требования к прозрачности, соблюдению авторских прав и защите данных.
Тем компаниям, которые готовы пойти ЕС навстречу, предлагается подписать добровольный кодекс поведения, но и он строг.
На стороне европейских законодателей, например, Mozilla, которая считает, что люди имеют право знать, как работает ИИ, и хватит прятаться за «черные ящики».
Но Google, Amazon, Meta* и прочие пытаются добиться правил помягче. Главные аргументы — не дать вырваться вперед Китаю, оставить технические секреты секретами, снизить затраты и повысить скорости. Законодатели отвечают: вы сэкономите на судах с разъяренными пользователями и за счет роста доверия к продукту.
Российская Федерация старается не отставать от мировых тенденций: суды планируют использовать алгоритмы в своей работе, частные компании (геймдев, финтех) уже их активно используют, студенты заваливают преподавателей сгенерированными курсовыми. И все это в условиях, когда многие сервисы, с одной стороны, не доступны, а с другой — существуют проблемы с оплатой сервисов.
При этом концептуально российский Федеральный закон «О персональных данных» ближе всего к суровому европейскому GDPR (General Data Protection Regulation), так что мы скорее пойдем путем ограничений, а не дерегулирования.
В таком расколотом правовом ландшафте многие уязвимые группы и компании остаются предоставлены сами себе и справляются по-разному.
Мошенничество в онлайн-ретейле процветало и без высоких технологий. Но до них это был кропотливый и местами ручной труд.
Теперь мошенники могут в реальном времени отслеживать (если не предсказывать) тренды и моментально выкупать товары для перепродажи.
Или, что еще хуже, тут же создавать фейковые витрины с правдоподобным дизайном.
{{slider-gallery}}
Тем временем бренды изучают методы борьбы со скрейпингом данных и вкладываются в ИИ-инструменты, вычисляющие паттерны мошенников, а юристы ожидают наплыва потребительских исков от покупателей недобросовестно сгенерированных товаров, недобросовестной информации и тому подобного.
Ученые относятся к достижениям ИИ двойственно. С одной стороны, многие активно ими пользуются и добились прекрасных результатов.
С другой — за последние годы из крупнейших научных журналов начали увольняться редакторы в знак протеста.
Руководство для экономии сокращает и оптимизирует процессы рецензирования и редактуры, то есть подрывает самый фундамент научной репутации.
А в прошлом году в уважаемый журнал Frontier прорвалась, вопреки всем проверкам, статья с абсурдными ИИ-иллюстрациями, особенно запомнившаяся всем рисунком крысы с гигантскими инопланетными гениталиями.
Так что в коллективных письмах, протестах и экспертных заключениях, направляемых в суды, найдется немало фамилий уважаемых ученых: они не хотят запрета ИИ, но они требуют ответственного отношения к нему.
Писатели, музыканты, актеры в одиночку и коллективно борются с бесплатным использованием их труда такими компаниями, как OpenAI, Microsoft, Anthropic, Perplexity AI и прочими.
Борьба идет с переменным успехом: если голливудским актерам и сценаристам неплохо удаются забастовки, то какая-нибудь художница с трудом оплачивает квартиру, пытаясь судиться со Stability AI или с онлайн-галереей DiviantARt.
Компании в ответ ссылаются на доктрину fair use (добросовестного использования), а то и заявляют, что их модели создают совершенно новые и уникальные произведения.
Не все судьи с этим согласны.
В споре писателя Джуно Диаса с компанией Meta* по поводу модели Llama судья заявила:
«Вы практически уничтожаете рынок личных произведений этих людей и говорите, что даже не должны заплатить им за работу. Я не понимаю, что тут добросовестного».
Речь идет о том, что модель может пересказывать книги Диаса практически дословно, поскольку была натренирована на его текстах, — без компенсации, конечно.
Музыкальные правообладатели объединились под эгидой Международной конфедерации музыкальных правообладателей (International Confederation of Music Publishers, ICMP).
В этом углу ринга такие тяжеловесы, как Sony, Universal Warner Music, так что их требования заключать лицензионные договоры и уважать закон могут быть и успешны.
{{slider-gallery}}
Порой компании сами задумываются об этичном использовании своих изобретений. Так, когда специалисты OpenAI создали инструмент клонирования голоса Voice Engine, который разрабатывали с 2022 года, они провели исследование и выяснили, что работает инструмент отлично.
И его можно было бы использовать в замечательных продуктах типа записи сказок для детей голосами их родителей. Но риски открытого доступа к продукту настолько велики, что они его пока так и не запустили.
Есть в этой битве использования данных и использования искусственного интеллекта свои подвижники и злодеи.
Например, издание The New York Times судится с OpenAI за копирайт, а The Washington Post, напротив, договорилась о том, что разрешает тренировать ChatGPT на текстах. Последнее неудивительно, учитывая, что медиа принадлежит миллиардеру Джеффу Безосу.
Удивительнее история Кристофа Шуманна, учителя из Гамбурга, который создал некоммерческий проект LAION (Large-Scale artificial intelligence open network). Это колоссальная база ссылок на публично доступные изображения (поэтому он ничего и не нарушает, ведь он не хранит контент).
Именно этой базой пользуются для тренировки моделей, генерирующих изображения, и Шуманн ни о чем не жалеет и считает, что художникам надо смириться с тем, что их изображения будут использованы для обучения ИИ рисованию.
С другой стороны, год назад из Stability AI ушел Эд Ньютон-Рекс, бывший вице-президент по аудио, и именно из-за несогласия с позицией работодателя по поводу добросовестного использования. Его замучила совесть, и он основал сайт Fairlytrained.org, который сертифицирует действительно добросовестные проекты. Добросовестный проект, с юридической точки зрения, — это проект, в котором все действия и решения принимались без злого умысла, с учетом интересов всех сторон и без намерения нанести ущерб. Строго говоря, технологические гиганты используют массивы данных для собственных моделей и обогащения, не учитывая интересов тех, чьи данные были использованы.
На переднем крае битвы с ИИ находятся самые беспомощные.
Есть причина, почему администрация Трампа хочет на федеральном уровне запретить регулировать ИИ. У закона много лоббистов, например компании-арендодатели — они научились пользоваться ИИ-продуктами, чтобы выставлять однообразно высокие цены за квартиры и дома.
По сути, это замаскированный картельный сговор, позволяющий выставлять монопольно высокие цены, — у арендатора нет шанса найти дешевую квартиру, когда все они попадают в единую систему.
Если статью о запрете регулирования ИИ примут, то Штаты не успеют защитить арендаторов от монополии агрегаторов недвижимости.
Естественно, жители стали подталкивать муниципальные власти к запрету таких практик. Если десятилетний запрет примут, Штаты не успеют защитить арендаторов от монополии агрегаторов недвижимости. И это как раз агрегаторы лоббируют появление ИИ-варианта Дикого Запада.
Но заоблачная арендная плата — это не самое худшее, с чем сталкиваются пользователи.
{{slider-gallery}}
ИИ-инструменты используют для расчета пособий и пенсий, оценки рисков для жизни и здоровья детей в неблагополучных семьях и, конечно, для слежки за гражданами. И эти системы регулярно ошибаются.
На самом деле проблемы с автоматизацией начались на самой ее заре: еще в 1970-е годы первая попытка одного британского госпиталя автоматизировать обработку резюме привела к тому, что программа стала отбрасывать людей с иностранными (то есть не типично английскими) фамилиями. Такой предрассудок возник на основе данных, на которых ее тренировали, — и вышло неловко.
Суды разных стран пополняются историями в духе «алгоритм решил, что у пациента больше нет проблем с ногой, потому что ногу ампутировали».
Причем руководство учреждений и ведомств, которые пытаются сэкономить на замене специалистов алгоритмами, потом нередко признается, что специалистов, способных проверить, корректно ли работает программа, они не завели.
В Новой Зеландии в 2012 году из самых лучших побуждений решили разработать программу, которая предсказывала бы риск насилия в семье. Ученые вычислили 132 фактора, которые могли бы предсказать дурное обращение с ребенком.
Но когда дошло до применения на практике, правительство решило, что дети не подопытные кролики, и отказалось. Команду пригласили работать в США, чтобы она помогла перегруженным органам опеки.
Вскоре начались жалобы родителей, попавших в группу риска. Юристы выяснили, что программа, например, учитывает психиатрические диагнозы родителей как один из факторов. Но данные она берет из государственных баз. Так что бедные семьи, которые лечатся в государственных клиниках, под подозрением, а богатые, которые ходят к частным врачам, — нет. А в 2017 году штат Иллинойс закрыл программу, потому что несколько детей, не выявленных алгоритмом, погибли.
И хотя юристы говорят, что искусственный интеллект скоро отнимет рабочие места у самого младшего юридического звена (делать обзоры судебных дел ИИ может не хуже стажера), сама работа у них точно не переведется.
На стороне человека неожиданно выступила Бразилия. В стране запустили пилотный проект dWallet, который позволит гражданам зарабатывать деньги всякий раз, когда какая-либо компания пользуется их данными.
Работает это примерно так. Скажем, вы хотите получить кредит и вам надо передать банку данные о себе. Данные попадают в «кошелек данных», и компании могут поторговаться за него.
Пользователь может принять предложение и получить за это деньги или отказаться — и информация не выйдет на рынок. В конце концов, эту информацию в любом случае похищают во время утечек и скупают на всевозможных биржах без ведома пользователя — так пусть ее создатель хоть что-то за это получит.
Так что, возможно, в далеком будущем мы будем благополучно жить на проценты от всего, что наговорили в интернете, а может — крутить педали, зарабатывая баллы на хлеб в системе всеобщего слежения. Пока что в киберпанке каждый сам за себя, и всеобщая практика использования данных пока не сложилась.
* Признана экстремистской и запрещена в России.
Полина Садовникова и Мария Бессмертная воспользовались этим поводом, чтобы пересмотреть свои любимые вампирские саги в строго рабочее время. Пройдите его и узнайте, какой вы вампир.