Если спросить у нейросети, по какому поводу к ней не стоит обращаться, то она выдаст достаточно общий гайд. Ей неизвестна природа физического мира и то, что происходило после 2024 года, а также она бесполезна, «если требуется эмоциональное сопереживание» и «ответы на абстрактные вопросы».
Несмотря на ограничения, с появлением первой успешной модели ИИ миллионы людей стали волноваться, что потеряют свои рабочие места и чат-боты всех заменят.
Как обычно, технопессимистичные теории далеки от реальности, а нейросети только улучшают жизнь и помогают в работе. Мы поговорили с людьми из разных сфер, которые используют искусственный интеллект, и задавали им один и тот же вопрос: в каких случаях ИИ бессмысленно использовать, а иногда даже вредно?
1. Главная ошибка — юристы и правда пытаются заменить себя нейросетью. На курсах повышения квалификации для преподавателей я слышала жалобы типа: «Я задал написать лекцию, а она получилась короткая и глупая». И преподавателю на курсах по повышению квалификации снова и снова приходилось объяснять, что так это не работает.
Статьи, написанные «доверчивыми» людьми, сразу выделяются:
— они пустые по содержанию или максимально неглубокие;
— немногочисленные мысли в них без конца повторяются;
— вся фактура сгенерирована (законы, дела, научные источники, имена и даты).
В случае с ИИ работает правило программистов: чушь на входе дает чушь на выходе.
Чтобы ИИ написал хорошую статью, надо разработать тему, составить план, собрать и проанализировать качественные материалы для хорошей статьи. Собственно, сделать то, что вы и делаете, чтобы написать качественную статью.
2. ИИ бесполезен для поиска информации, которая выходит за пределы временной базы, что особенно актуально для юристов, например законы и решения судов 2025 года.
3. Не все материалы будут доступны. Например, есть материалы закрытых статей. Их доступ можно запросить только лично, оформив документы.
4. Особенный момент — у каждой нейронной сети есть своя цензура. Надо очень аккуратно формулировать вопрос — скажем, о кибербезопасности.
5. Chat GPT выдает явно вторичные идеи в диапазоне от сериала «Чужестранка» до сказки «Цветик-семицветик». Никакого сюжета, или контекста. Просто набор схематичных действий в стиле «дракон унес принцессу и положил ее обратно». Изобразить определенный исторический период ИИ тоже не умеет. Все идеи нуждались в серьезной доработке. Мне было проще придумывать самой, чем терзать ИИ.
6. Несмотря на то что ИИ — это прекрасный инструмент для дифференциальной диагностики, все-таки это для врачей. Но решение остается всегда за человеком. И мои коллеги все-таки стараются в первую очередь советоваться друг с другом, а с ИИ в лучшем случае предпочитают подумать, покрутить решения.
А вот пациентам я бы рекомендовала остановить ИИ-лечение в тот момент, когда оно выходит за рамки «приложить тепло/холод» или «побольше пить» и начинается назначение препаратов.
ИИ часто ошибается в дозах, к сожалению, а при попытке запросить источник часто выдумывает.
{{slider-gallery}}
7. ИИ не поможет в экстренных ситуациях, когда возникают панические атаки или суицидальные мысли.
8. С психологическими травмами — тоже. При работе с последствиями абьюза обязательно нужен контакт с живым терапевтом, потому что такие ситуации излечиваются именно в контакте с живым человеком. ИИ может только помочь порефлексировать на тему происходящего, но исцеляющего контакта он, конечно, не дает.
9. ИИ не работает для раскрытия своей идентичности, психоэмоционального развития. В этих случаях тоже нужен живой человек, который поможет не только рефлексировать, но и выстраивать собственную внутреннюю структуру.
10. А еще ИИ не может проявлять человеческую эмпатию, а это основа основ терапевтической работы.
11. ИИ не может имитировать настоящего человека. И если люди хотят выстраивать живые отношения с другими людьми, то им придется встречаться с терапевтом, который тоже живой. С ИИ можно научиться общаться только с роботами.
12. Экзистенциальный кризис невозможно прожить с ИИ, потому что экзистенциальный кризис предполагает ощущение тотального одиночества. А для того, чтобы ощущение тотального одиночества прошло, необходимо заметить рядом с собой присутствие другого живого человека, а в случае с психотерапией — живого терапевта.
13. У нас очень полярные мнения в цеху насчет производства контента при помощи ИИ. Есть люди, которые считают, что ура, мы наконец-то дошли до момента, когда искусственный интеллект нам заменит всех райтеров, идеологов, дизайнеров, медийщиков и так далее. Мы будем просто печь как пирожки великолепные тексты. К сожалению, это не так.
Ни один текст, который искусственный интеллект генерирует, без проверки выпускать нельзя.
В предвыборной кампании ИИ годится для генерации рядовых продуктов, например поздравлений, коротких новостей.
Что касается качества: я люблю говорить, что, если вы в свою работу внедрили искусственный интеллект и видите, что тексты, которые вам производят, например, ничуть не хуже, чем писали ваши райтеры, это не потому, что ИИ такой молодец, а потому, что, возможно, райтеры у вас были очень средние.
Разница между текстовыми продуктами машины и людей заметна. И не в пользу машин.
{{slider-gallery}}
14. Самый важный навык, который дает школа и вообще любое образование, — навык поиска информации, ее анализа и проверки. Чат-боты в этом отношении черные ящики: вы не видите их работу. А даже попросив «рассуждать по шагам», не можете проверить, не умея самостоятельно думать. А если надо проверять, то какой смысл в роботе?
Более того, зачем вырабатывать привычку обращаться к роботу, которая потом может выйти боком (и убытками) в реальной работе? Вряд ли кто-то из учеников или их родителей захочет иметь дело с юристом, который без Chat GPT не сможет ответить на вопрос «Как мне правильно оформить доверенность на машину?». Значит, надо учиться думать и отвечать на вопросы самим.
Приведу банальный пример. Я задала СhatGPT промт: «Напиши, при каких условиях можно отозвать подарок, сошлись на конкретные статьи ГК РФ».
Без ИИ-помощника мы просто открываем ГК РФ, смотрим в оглавление, находим там главу «Дарение» (глава 32) и тут же видим статью 578. Смысл применять чат-бота, за которым потом все равно надо перепроверить и убедиться, что, скажем, чат-бот не опирается на ГК другого государства, не использует устаревшие материалы, не галлюцинирует?
15. Я не использую ИИ ни для чего, что касается стратегии. Ни одна нейросеть не понимает, что такое на самом деле медиа и как оно устроено изнутри, какие в нем происходят процессы и как их можно оптимизировать.
17. Я не уверена, что ИИ может совместить в рамках текста целевое и полезное действие, — обычно получается на выходе что-то сугубо маркетинговое.
16. Возможно, у меня не хватает навыка, но я не могу доверить ИИ даже составление контент-плана на неделю, потому что он получается совершенно оторванным от жизни. И гораздо проще сделать его самостоятельно, чем погрузить в ИИ тонну материала и обучить. — обычно получается на выходе что-то сугубо маркетинговое.
18. Абсолютно все, что касается текстов, за ИИ надо проверять: релевантность, достоверность, актуальность для твоего сегмента аудитории. ИИ не умеет работать на аудиторию и, как человек, держать в голове контекст, для кого мы, собственно, пишем.
{{slider-gallery}}
19. Для создания научных статей Chat GPT бесполезен: слишком много сочиняет.
Нейросеть Perplexity AI более точна, она может по запросу качественно подобрать список литературы. И этот список будет релевантным, грамотным, качественным.
20. Chat GPT не может составить библиографию — половина авторов будут выдуманными. Нейросеть придумывает авторов, несуществующие работы и события. Нейросеть Gemini, кстати, делает тоже самое.
21. Gemini не годится даже для пересказа основных событий в книге. В нее можно подгрузить от 1 тыс. токенов или до 2 тыс. токенов (это около полумиллиона слов). Для понимания масштабов: роман Льва Толстого «Война и мир» — это 460 тыс. слов. Однако с таким массивом данных или даже меньшим нейронка не справляется: она очень часто зависает или неправильно интерпретирует события.Допустим, мне нужно уточнить сюжет или найти нужную цитату. Это практически невозможно: Gemini просто не умеет выделять общее и частное, отличать включенные цитаты от текста автора. Нейросеть может остановиться в любой момент, решив, что роман на 800 страниц кончается на пятой главе — просто потому, что слово, на котором ИИ сосредоточил свое внимание, перестает встречаться в дальнейших главах.В любой непонятной ситуации нейронка пускается в сочинения. Получается, что проще один раз поработать с романом на 800 страниц, чем загружать его в нейросеть (что занимает время) и следить за качеством работы ИИ.
22. Язык Gemini очень ненаучный: нейросеть не сможет сгенерировать статью и сделать это наукоемко и содержательно. Ее продукт не годится не только для конференций, но даже для рядовых мероприятий в институте.
Полина Садовникова и Мария Бессмертная воспользовались этим поводом, чтобы пересмотреть свои любимые вампирские саги в строго рабочее время. Пройдите его и узнайте, какой вы вампир.