Рубрика «Семантика»

Современные большие языковые модели (LLM) — ChatGPT, Gemini, DeepSeek, Qwen — из экзотического инструмента превратились в повседневную рабочую среду для многих специалистов. Мы используем их для написания кода, анализа данных и генерации текстов, часто подходя к процессу по наитию: подбираем промпты (запросы к GPT), меняем формулировки и сохраняем удачные как рецепты.

Читать полностью »

Аналогии между фракталами и парадоксами

В 90-е годы резко вошла в моду фрактальная геометрия — учение Бенуа Мандельброта о том, что Евклид ошибся, детей в школе учат неправильно, а все формы в мире являюся «на самом деле» не точками, линиями и плоскостями, а фракталами. Природа фрактальна, мысль фрактальна, изображения фрактальны, звуки фрактальны. Весь мир фрактал и люди в нем фракталы (за очень редкими исключениями).

Эта идея меня увлекла, и поэтому, когда я учился на кафедре логики в МГУ, я решил написать диплом о фракталах и придумать фрактальную логику (кафедра логики всё‑таки).

Читать полностью »

О предсказании, понимании и семантическом разрыве

Почему ИИ не понимает смысла, но этого (пока) хватает - 1

Читать полностью »

Хайп? Философия? Повседневность? Будущее? 

Давайте разбираться.

TL;DR:

Онтология в IT - это способ структурировать знания о мире в виде связанных категорий и их свойств. 

Например, в онтологии "Игры престолов" есть категории "дома", "персонажи" и связи между ними. Когда мы наполняем онтологию реальными данными, получается граф знаний. 

Семантический слой - это более абстрактное понятие, включающее все способы придания смысла данным. 

Вместе они помогают ИИ-системам лучше понимать контекст и давать более точные ответы. 

Читать полностью »

Когда речь заходит про общение и память, то наука в целом объясняет природу абстрактных образов, которыми мы обмениваемся друг с другом. Когда в голове всплывает образ «ручки» или «ноутбука», то это благодаря отдельным соединениям нейронов, нейронным связям. Но как реагирует наш мозг, когда речь заходит про местоимения? Как мы понимаем их смысл?

Память, мозг, речь. Как мы понимаем местоимения? - 1

Читать полностью »

Зализняк: основа русской прикладной лингвистики - 1

При построении прикладных систем, работающих с текстами, первая же задача — это отождествление слов друг с другом. Для большинства языков индо-европейской группы её решение не представляет большой сложности. И решений этих существуют сотни, а самые простые из них, как правило, дают вполне пригодные (в рамках решаемой задачи) результаты.

Читать полностью »

Совсем недавно мне стали попадаться на Хабре интересные и без преувеличения фундаментальные исследования о роли тёмной темы при проектировании GUI. Особенно отмечу публикацию уважаемой Марии Колчановой @mkolchanova «Как работают глаза и что надо учитывать, создавая тёмную тему приложенияЧитать полностью »

Эрзянский язык из финно-угорской семьи – один из официальных в республике Мордовия, и на нём говорят сотни тысяч людей, но для него до сих пор не было почти никаких технологий машинного перевода, кроме простых словарей. Я попробовал создать первую нейросеть, способную переводить с эрзянского на русский (и с натяжкой ещё на 10 языков) и обратно не только слова, но и целые предложения.
Пока её качество оставляет желать лучшего, но пробовать пользоваться уже можно.
Как я собирал для этого тексты и обучал модели – под катом.

Читать полностью »

Энкодер предложений (sentence encoder) – это модель, которая сопоставляет коротким текстам векторы в многомерном пространстве, причём так, что у текстов, похожих по смыслу, и векторы тоже похожи. Обычно для этой цели используются нейросети, а полученные векторы называются эмбеддингами. Они полезны для кучи задач, например, few-shot классификации текстов, семантического поиска, или оценки качества перефразирования.

Читать полностью »

NLI (natural language inference) – это задача автоматического определения логической связи между текстами. Обычно она формулируется так: для двух утверждений A и B надо выяснить, следует ли B из A. Эта задача сложная, потому что она требует хорошо понимать смысл текстов. Эта задача полезная, потому что "понимательную" способность модели можно эксплуатировать для прикладных задач типа классификации текстов. Иногда такая классификация неплохо работает даже без обучающей выборки!

До сих пор в открытом доступе не было нейросетей, специализированных на задаче NLI для русского языка, но теперь я обучил целых три: Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js