Рубрика «gpt» - 7

Данные за апрель 2025. Расклад в главной мировой гонке века следующий. Отранжировано по убыванию.

1. ChatGPT — 5,1 млрд. (!) визитов в месяц. Абсолютное доминирование.

2. DeepSeek от китайцев — 480 млн. Хороший ответ с новой архитектурой и открытостью кода. Но в сравнении с прошлыми месяцами трафик плавно идет на спад. Возможен скорый рост, за счет интеграции в потребительскую робототехнику, в которую активно ринулись большинство автопроизводителей Поднебесной.

3. Gemini от GoogleЧитать полностью »

– Мне не хватает DeepResearch, он дает слишком поверхностные и отрывочные результаты, приходится дальше копать вручную. Я бы хотел такую программу, чтобы я задал какую-то тему, ИИ ночью хорошенько покопался в интернете и подготовил локальную базу знаний. Чтобы утром я для моей работы получил полную коллекцию перепроверенной и структурированной информации.

– Я бы тоже хотел такую, но пока задача решается лишь частично - получаем или немного красиво оформленного, или много всего подряд. С утра вы предпочитаете заняться поиском недостающего или убиранием избыточного?

Читать полностью »

Мне давно хотелось проверить текущий уровень языковых моделей от Open ai на целом наборе математических задач, только на уровне ЕГЭ.

Я уже имею достаточно большой опыт работы с GPT-o3-mini high, даже та модель справлялась с задачами олимпиадного уровня, о чём будет дальнейшая статья (надеюсь).

Но сейчас про ЕГЭ. Как многие знают, профильный ЕГЭ по математике делится на 2 части: 1 с кратким ответом и 2-ая, где необходимо полное и обоснованное решение.

1 часть

Здесь GPT сделал 3 ошибки: во 2, 8 и 11 задачах. Рассмотрим сначала эти задачи

2 задание

Читать полностью »

Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.

У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей. 

Статья на основе презентацииЧитать полностью »

Автор: A.Ankalaev
Cистемный администратор с опытом более 20 лет

  • Среди специалистов по разработке, особенно тут на Хабре, бытует мнение, что большие языковые модели (LLM) не способны генерировать полноценные приложения «под ключ». Сам работаю с нейросетями со времён GPT, бесконечное количество раз применял их в своей работе для:

    обучения персонала безопасности в сети

  • проектирования концепций

  • математических вычислений (нагрузка, мощность, распределение)

  • личного карьерного роста.

Если верить данным в сети:

В этой статье я поделюсь результатами исследования, посвященного унификации процессов создания проектов в Jira, используя возможности автоматизации и API. Статья была написана с помощью GPT Deep Research в целях изучения различных подходов к унификации рабочих процессов и настройки проектов в Jira. Основная цель — собрать мнения и комментарии от других экспертов, чтобы понять, как они подошли к созданию стандартов и оптимизации процессов в своей практике. Буду рад услышать ваши истории и советы по унификации в Jira, а также обсудить лучшие методы для повышения эффективности и согласованности в работе команд.

Читать полностью »

Недавно в X (Твиттере) один пользователь задался вопросом - сколько денег OpenAI потеряла из-за того, что люди говорят своим LLM спасибо и пожалуйста (не дословно). Сэм Альтман ответил на это: "tens of millions of dollars well spent--you never know", что можно перевести как: "десятки миллионов долларов были потрачены не зря, никогда не знаешь [на чем выиграешь].

Читать полностью »

Это вторая концовка моего мини-хабра-сериала с переводом нашумевшего Sci-Fi рассказа ai-2027.com. Он написан топовыми ИИ-экспертами, опирается на кучу данных, имеет две концовки (!) и сейчас все о нём говорят.

Эту концовку не выбрали читатели хабра на голосовании в конце второй части.

Читать полностью »

https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js