Привет! Меня зовут Владимир Казаков, я руковожу продуктом «Обучение» в МТС Линк. А еще я с удовольствием помогаю организовывать и проводить хакатоны — это всегда десятки свежих идей, передающийся от участников драйв, новые контакты и море опыта для будущих разработчиков. Полгода назад в наш рабочий чат внезапно прилетело сообщение: «Ребят, срочно! МИФИ организуют хакатон, нужна задача, желательно отправить сегодня!». Вызов был принят, и мы подготовили задание по работе с большими данными. В этом посте расскажу, чем студенты могут удивить разработчика с 15-летним стажем, в чем их сильные стороны, а что еще надо подтянуть. Читать полностью »
Рубрика «искуственный интеллект»
Удивительный мир хакатонов: как я придумал для студентов задачку и что они с ней натворили
2025-02-06 в 11:54, admin, рубрики: big data, Большие данные, искуственный интеллект, командная работа, машинное обучение, мтс линк, хакатонСравнение кода DeepSeek и ChatGPT(Golang)
2025-02-02 в 11:17, admin, рубрики: chatgpt, chatgpt-4, deepseek, DeepSeek R1, Go, искуственный интеллектВесь этот шум заставил меня заинтресоваться DeepSeek. Самое банальное сравнить с ChatGPT. Ну и плюсом, у меня сегодня выходной, можно и поиграть немного. Код пусть будет на Go. Модели GPT-o1 и Deepseek-R1.
Заданием для нейронок будет написать две игры. Эти две игры это вообще первое что я когда либо написал в своей жизни, правда, это было не на Go.
Задание 1: Игра "Пинг-Понг" на Go
Промт:
Читать полностью »
Поднимаем в облаке расшифровку речи в текст с помощью нейросетей. VPS на пределе возможностей
2024-12-17 в 9:01, admin, рубрики: OpenAI, ruvds_статьи, vps, Whisper, искуственный интеллект, машинное обучение, нейросети, облака, сервера, Серверное администрирование![Поднимаем в облаке расшифровку речи в текст с помощью нейросетей. VPS на пределе возможностей - 1 Поднимаем в облаке расшифровку речи в текст с помощью нейросетей. VPS на пределе возможностей - 1](https://www.pvsm.ru/images/2024/12/17/podnimaem-v-oblake-rasshifrovku-rechi-v-tekst-s-pomoshyu-neirosetei-VPS-na-predele-vozmojnostei.png)
Привет! В этом посте я продолжаю цикл статей о том, как выжать максимум из обычного VPS от RUVDS. В прошлый раз мы экспериментировали с языковыми моделями, а сегодня попробуем запустить систему распознавания речи — FasterWhisper, оптимизированную версию модели Whisper от OpenAI. Как и в прошлый раз, сделаем это в рамках бюджета в 5000 рублей в месяц.Читать полностью »
Конкурентное преимущество: почему ИИ-агенты — ключ к успеху вашего бизнеса
2024-12-06 в 17:08, admin, рубрики: бизнес, ИИ, инновации, иновации, искусственный интеллект, искуственный интеллект, нейросети, нейросеть, нейросотрудники В 2025 году ИИ-агенты станут критическим инструментом конкурентного преимущества. Технология, которая определит будущее вашего бизнеса.
Представьте: обычный офисный понедельник. Марина, руководитель отдела продаж, устало смотрит на монитор. Очередной клиентский запрос, очередная стандартная переписка с чат-ботом.
Привычный сценарий:
Клиент: "Какие у вас условия?"
Чат-бот: "Смотрите раздел на сайте..."
Клиент: Закрывает страницу сайта
А теперь представьте другую картину.
Рождение ИИ-агента: от механического автоответчика к стратегическому партнеру
Что говорит динозавр, или как современные технологии помогают палеонтологам
2024-11-30 в 8:00, admin, рубрики: динозавры, звук, искуственный интеллект, Научно-популярное, нейросетиПривет! Это Даша Фролова из команды спецпроектов МТС Диджитал. Сегодня на повестке технологии и… паразауролофы! Этих динозавров легко узнать по гребню на голове, и вы наверняка видели их в «Парке Юрского периода». Да и в «Мире Юрского периода: Господство» они недавно тоже засветились.
Обзор на Model Context Protocol (MCP) от Anthropic
2024-11-29 в 8:16, admin, рубрики: Anthropic, api, claude, MPC, TypeScript, искуственный интеллектНа заре появления LLM пользователям приходилось просто копировать свой код в текстовое окно, чтобы ИИ могла его обработать. Естественно, такой подход быстро всех утомил, и разработчики начали искать свои способы загрузки данных в модель. У этого подхода была серьезная проблема — каждому приходилось изобретать велосипед заново. Именно поэтому появился протокол MCP (Model Context Protocol) — универсальный способ дать искусственному интеллекту доступ к нужным данным, неважно где они хранятся — на компьютере пользователя или же в интернете.
Как это работает?
Мы потратили 320 тысяч рублей ради Nvlink для нейросетей. Но был ли в этом смысл?
2024-11-25 в 10:53, admin, рубрики: A5000, llama, Nvidia, NVLink, ServerFlow, Видеокарты, ИИ, искуственный интеллект, машинное обучение, Серверное администрированиеПривет, с вами снова ServerFlow. И да, мы потратили 320 тысяч рублей, чтобы проверить, есть ли какой-то толк от Nvlink при развертывания нейросетей? Тесты мы провели на двух видеокартах Nvidia A5000 24GB, сначала объединённые NVLink, а после без него. Для наглядности теста нами была выбрана последняя языковая модель LLaMA 3.2 на 90 миллиардов параметров. Что у нас в итоге вышло – сможете узнать ниже в посте.
Генерируем презентации с помощью GigaChat и Kandinsky
2024-11-13 в 8:06, admin, рубрики: GigaChat, kandinsky, kandinsky 3.1, powerpoint, генерация презентаций, искуственный интеллект![Генерируем презентации с помощью GigaChat и Kandinsky - 1 Генерируем презентации с помощью GigaChat и Kandinsky - 1](https://www.pvsm.ru/images/2024/11/13/generiruem-prezentacii-s-pomoshyu-GigaChat-i-Kandinsky.gif)
Все мы время от времени сталкиваемся с необходимостью сделать презентацию, даже если наша работа, казалось бы, этого не предполагает. Часто это трудоёмкая задача, которая досадно надолго отвлекает от просмотра мемов действительно важных дел вроде написания кода и обучения моделей.
Рубрика: VPS на пределе возможностей. LLM на CPU с 12Gb RAM
2024-11-12 в 9:01, admin, рубрики: llama, Ollama, ruvds_статьи, vps, ИИ, искуственный интеллект, машинное обучение, нейронные сети, облако, сервер![Рубрика: VPS на пределе возможностей. LLM на CPU с 12Gb RAM - 1 Рубрика: VPS на пределе возможностей. LLM на CPU с 12Gb RAM - 1](https://www.pvsm.ru/images/2024/11/13/rubrika-VPS-na-predele-vozmojnostei-LLM-na-CPU-s-12Gb-RAM.png)
По работе я привык, что если какая-то нейронка не влезает на GPU-сервер, то первое моё действие — проверить, нет ли модели с квантизацией побольше, либо запросить ещё больше VRAM. Однако не все работают на облачных провайдерах, кто-то у нас ещё и заказывает услуги. А тарифы на GPU-серверы порой заставляют серьёзно задуматься о том, так ли они нужны, особенно когда нет потребности в нейронках на сотни миллиардов параметров. Что, если попробовать делать всё на обычном VPS-тарифе с бюджетом в 5000 рублей в месяц? Да и зачем ограничиваться одними лишь нейронками?