Как я пытался автоматизировать рутину с помощью ИИ и что из этого вышло

в 15:15, , рубрики: автоматизация, нейросети, рутина

Меня зовут Владимир и я продакт‑менеджер со стажем. В этой статье я хочу рассказать о том, как я использовал LLM‑модели (далее нейросеть) в своей ежедневной работе и почему это может быть оказаться полезно именно вам. Начну с небольшой справки:

LLM (Large Language Model, «большая языковая модель») — это класс алгоритмов искусственного интеллекта, обученных на внушительных объёмах текстовых данных, чтобы понимать и генерировать новые тексты на естественном языке. Проще говоря, такая модель «читает» миллионы книг, статей и других текстовых источников, чтобы «научиться» закономерностям языка: грамматике, стилистике, логике изложения и многим другим нюансам.

Так описывает себя ChatGPT

А теперь к сути: что вообще меня сподвигло написать этот текст? Однажды мой знакомый продакт спросил у меня: «А как вы используете нейросети в своей работе?». Я подумал и ответил: «А никак.» Надо сказать, что я не очень доверял нейросетям, воспринимая их скорее как продвинутый поисковый движок, нежели ассистент в ежедневных рутинных задачах. Мы немного поговорили о его опыте, и я в очередной раз призадумался: «А может пора?». Откровенно говоря сыграло ощущение того, что я упускаю что‑то полезное и интересное (как в своё время случилось с криптой) и, возможно, стоит попробовать. Использовал я в основном ChatGPT и совсем недавно познакомился с Deepseek и Qwen.

Вопросы безопасности и проверка фактов

Меня всегда волнует безопасность. Мы же работаем с реальными проектами и реальными людьми, где фигурируют NDA и прочая конфиденциальная информация. Поэтому я решил все «опасные» данные либо обобщать, либо убирать вовсе.

Скажем, если у нас есть конкретный клиент, я не писал «Иван Иванов, номер телефона такой‑то», а превращал всё в «[Клиент X], [Контакт]». Согласитесь, зачем лишний раз подставлять свою компанию, когда инструменты могут сохранять историю запросов на своих серверах?

Ещё один «подводный камень» — ИИ иногда ошибается и пишет разные глупости, причём с очень серьёзным видом. Поэтому я постоянно перепроверял факты. Но, если честно, в большинстве случаев мне приходилось исправлять только мелкие неточности, которые легко вылавливались при беглом просмотре.

Что я пытался автоматизировать

Составление брифов

Самым очевидным шагом было отдать ИИ задачу, которую я терпеть не мог: написание брифов для внутренних стейкхолдеров. Чтобы написать бриф по какой‑нибудь фиче, обычно мне приходилось открывать десяток документов, сводить всю информацию вручную и при этом стараться, чтобы текст был емким, но не потерял никаких важных деталей.

Я загрузил в ChatGPT отрывки из предыдущих брифов и написал что‑то вроде: «Помоги сформировать короткий бриф для новой функциональности. Вот ключевые требования, сроки и риски.

Если бы меня спросили, чего я ждал от этой штуки, я бы ответил, что надеялся на волшебную палочку, которая сделает всё сразу и хорошо, однако вышло не так. Текст был хоть и неплох: хорошо структурирован, подсвечены какие‑то важные моменты, но мне показалось что в нём очень много воды. Пришлось докручивать его дополнительными запросами вроде «Сделай текст более ёмким, убери ненужные детали», или «Измени тон на менее официальный, но без фамильярности». В общем поначалу задача заняла у меня примерно столько же (а может и больше времени), чем ручное написание брифа.

В этот момент я осознал важность правильной постановки задачи, ведь нейросеть действует по твоей инструкции и чем детерминированней она, тем лучше будет результат. Пришлось погрузиться в чтение материалов во промптингу (искусству писать запросы нейросетям), что, в конечном итоге, позволило мне получать более качественный результат за меньшее время.

В общем мне удалось сократить время на выполнение таких задач примерно вдвое (хотя, конечно, зависит от сложности фич).

Резюме совещаний в Zoom

Следующим шагом было самое неприятное для меня — написание резюме по совещаниям и рабочим встречам (да, я продакт который не любит излишек встреч). Записывать по ходу встречи получалось не всегда и не всё, плюс во время записи я подвисал на вопросах, которые задавали мне, да и во время бурных дискуссий решение часто менялось на ходу, от чего реально болела голова.

Для начала пришлось включать запись в Zoom, что вызывало дискомфорт у некоторых коллег, который, в свою очередь, уже был красным флагом. Плюс ко всему видео в ChatGPT не скормишь, так что я нашёл несколько сервисов для транскрибации видео и получил текстовые расшифровки созвонов. Опять же, качество расшифровок в бесплатных сервисах было так себе, иногда реплики разных людей смешивались в одну, а уж когда говорили несколько человек получалась полная каша. Платить за сервисы я не стал, эксперимент же. Так что пришлось перебирать эти тексты руками, возвращая им тот смысл, который изначально был в них.

Далее я скормил расшифровку тому же ChatGPT, попросив сжать её в резюме на одну страницу, чтобы не потерять принятые решения и основные тезисы. После пары‑тройки попыток (снова промптинг) получилось даже сносное резюме, однако времени мне это не сэкономило. Все телодвижения, которые пришлось предпринять,

Таким образом самым эффективным способом всё ещё осталась ручная запись тезисов и верификация их в конце встречи.

Получение быстрых идей для решения задач

В какой‑то момент я подумал: «А что если нейросеть может давать решения на запросы бизнеса, ведь она обучалась в том числе на десятках тысяч статей „Как мы делали это“?»

Для начала я взял одну из текущих задач, где надо было разместить несколько контекстных блоков, чтобы мотивировать пользователей совершить определённые действия. Я спросил у ChatGPT: «Если бы ты был продактом и тебе надо было разместить несколько блоков с такой‑то целью в продукте похожем на мой (тут была ссылка, но я не хочу окончательно деанониться, так что опущу её) где и что бы ты разместил?».

Тут я ожидал, что ChatGPT опишет как уже запланированные мной доработки, так и добавит чего‑то не столь очевидного. Не знаю уж, мой промптинг недостаточно хорош, или нейросеть действительно не всемогуща, но я получил меньше идей чем описал сам, хотя и самые очевидные из них были также перечислены нейросетью. Я попробовал задать больше контекста, потому что нейросеть не может самостоятельно изучить приложение, а веб версии у нас нет, но, увы. Можно сказать, что я получил ответ базового уровня, который мог бы набросать и сам.

Также я просил нейросеть выполнить ту же задачу, но в контексте веб‑страниц, того же Хабра, ощущение то же самое, только простые варианты, которые можно легко придумать и самому.

Вывод я сделал очень простой: использовать нейросеть можно, но только для того, чтобы убедиться, что я не пропустил самых очевидных вещей.

Генерация изображений/мокапов интерфейсов

По поводу изображений вопросов быть не может: описываем, запрашиваем побольше вариантов, выбираем понравившийся, profit.

С мокапами интерфейса всё несколько сложнее. ChatGPT, Deepseek или Qwen не генерируют изображение напрямую, однако могут сгенерировать html‑код или.svg файл.

Мне так и не удалось победить самого себя в Фигме, когда я просто создаю копию существующего элемента и модифицирую её как требуется. Так что и тут эффективность нейросетей осталась под вопросом.

Подготовка «черновиков» текстов для UI

Я всегда писал тексты вручную, например, приходилось выдумывать разные варианты текста для кнопок, какие‑то приветственные сообщения в приложении. Это считалось «простой задачей», но при этом отнимало массу времени.

На волне успехов с брифами, я решил попробовать применить нейросети и здесь. Я сформулировал запрос для ChatGPT примерно так: «Это мобильное приложение для того‑то, тон — дружелюбный и немного игривый, подбери несколько вариантов текста для экрана приветствия. В результате получил подборку фраз, которые можно было не дорабатывать и положить в спецификацию.

Тут ожидания столкнулись с реальностью, конечно, иногда, приходится сокращать тексты под требования интерфейса, но даже так выходит значительно быстрее, чем придумывать новые тексты или обращаться к справочникам.

Итог

Вся эта затея с автоматизацией оказалась интересным экспериментом, я стал тратить меньше времени на тексты, но на этом, к сожалению, всё.

Для меня оказалось рациональным использовать нейросети для работы с текстами, например для внутренней документации и создания текстовок для новых фич (или обновления старых).

Кажется, что если вы достаточно опытный специалист, то влияние нейросетей будет не столь значительным, хотя, бесспорно добавит комфорта для самый рутинных и унылых задач, а вот если вы начинающий специалист то тогда, вполне вероятно, вы сэкономите гораздо больше времени чем я.

Я не претендую на истину в последней инстанции, поэтому с радостью готов обсудить свой и ваш опыт в комментариях.

Автор: justaregularproduct

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js