В PostgreSQL есть два типа данных: JSON и JSONB. Первый формат является текстовым хранилищем, в котором json хранится "as is", второй — бинарным, в нем ключи отсортированы (сначала по длине ключа, а потом по его названию), дубликаты удалены, а пробелы удалены. Этот SQL-запрос иллюстрирует различие между JSON и JSONB:
Рубрика «postgresql performance»
Борьба с TOAST или будущее JSONB в PostgreSQL
2022-01-23 в 21:26, admin, рубрики: high performance, highload, json, jsonb, postgres, postgresql, postgresql performance, toast, Администрирование баз данных, бенчмарки, Блог компании Конференции Олега Бунина (Онтико), высокая производительность, исследования в it, хранилища данныхДелаем быстрее POSTGRESQL COUNT (*)
2020-02-28 в 8:07, admin, рубрики: postgresql, postgresql performance, sql
Часто жалуются, что count (*) в PostgreSQL очень медленный.
В этой статье я хочу изучить варианты, чтобы вы получили результат как можно быстрее.
Почему count (*) такой медленный?
Большинство людей без проблем понимают, что следующий запрос будет выполняться медленно:
SELECT count(*)
FROM /* сложный запрос */;
В конце концов, это сложный запрос, и PostgreSQL должен вычислить результат, прежде чем узнает, сколько строк он будет содержать.
Но многие люди потрясены, когда узнают, что следующий запрос медленный:
SELECT count(*) FROM large_table;
Тем не менее, если вы подумаете еще раз, все вышесказанное остается в силе: PostgreSQL должен вычислить результирующий набор, прежде чем сможет его посчитать. Поскольку в таблице не хранится «магический счетчик строк» (как в MyISAM MySQL), единственный способ подсчитать строки — это просмотреть их.
Поэтому count (*) обычно выполняет последовательное сканирование таблицы, что может быть довольно дорого.
Читать полностью »
Попытка создать аналог ASH для PostgreSQL
2019-09-12 в 13:55, admin, рубрики: postgresql, postgresql performance, Администрирование баз данныхПостановка задачи
Для оптимизации запросов PostgreSQL, очень требуется возможность анализировать историю активности, в частности – ожидания, блокировки, статистика таблиц.
Имеющиеся возможности
Инструмент анализа исторической нагрузки или «AWR для Postgres»: очень интересное решение, но, нет истории pg_stat_activity и pg_locks.
Расширение pgsentinel :
"Вся накопленная информация хранится только в оперативной памяти, а потребляемый объём памяти регулируется количеством последних хранимых записей.
Добавляется поле queryid — тот самый queryid из расширения pg_stat_statements (требуется предварительная установка)."
Это конечно сильно бы помогло, но самая неприятность именно первый пункт “Вся накопленная информация хранится только в оперативной памяти ”, т.е. имеем место импакт на целевую базу. К тому, же нет истории блокировок и статистики таблиц. Т.е. решение вообще говоря неполное: “Готового пакета для установки пока нет. Предлагается скачать исходники и собрать библиотеку самостоятельно. Предварительно требуется установить «devel»-пакет для своего сервера и в переменную PATH прописать путь до pg_config.”.
В общем – возни много, а в случае серьезных продакшн баз, может быть, и не будет возможности что-то делать с сервером. Нужно опять, придумывать, что-то свое.
Предупреждение.
В силу довольно большого объема и в связи с незавершением периода тестирования, статья носит в основном ознакомительный характер, скорее как набор тезисов и результатов.
Более подробный материал, будет подготовлен позже, по частям
Optimisations for PostgreSQL serving Rails application
2019-03-26 в 14:38, admin, рубрики: papertrail, postgresql, postgresql performance, ruby on railsAs Senior Software Engineer at company building messaging platform for healthcare industry I am responsible, including other duties, for performance of our application. We develop pretty standard web-service using Ruby on Rails application for business logic and API, React + Redux for users' facing single page application, as database we use PostgreSQL. Common reasons for performance problems in similar stacks are heavy queries to database and I would like to tell the story how we applied non-standard but fairly simple optimisations to improve performance.
Our business operates in US, so we have to be HIPAA compliant and follow certain security policies, security audit is something that we are always prepared for. To reduce risks and costs we rely on a special cloud provider to run our applications and databases, very similar to what Heroku does. On one hand it allows us to focus on building our platform but on the other hand it adds an additional limitation to our infrastructure. Talking shortly — we cannot scale up infinitely. As a successful startup we double number of users every few month and one day our monitoring told us that we were exceeding disk IO quota on the database server. Underlying AWS started throttling which was resulting in a significant performance degradation. Ruby application was not capable to serve all incoming traffic because Unicorn workers were spending too much time awaiting for database's response, customers were unhappy.
Синтез как один из методов улучшения производительности PostgreSQL
2019-03-23 в 16:30, admin, рубрики: postgresql, PostgreSQL monitoring, postgresql performance
Философское вступление
Как известно, существует всего два метода для решения задач:
- Метод анализа или метод дедукции, или от общего к частному.
- Метод синтеза или метод индукции, или от частного к общему.
Для решения проблемы “улучшить производительность базы данных” это может выглядеть следующим образом.
Читать полностью »
Как одно изменение конфигурации PostgreSQL улучшило производительность медленных запросов в 50 раз
2019-03-16 в 16:58, admin, рубрики: postgresql, postgresql performanceЗдравсвуйте! Предлагаю вашему вниманию перевод статьи «How a single PostgreSQL config change improved slow query performance by 50x» автора Pavan Patibandla. Она очень сильно мне помогла улучшить производительность PostgreSQL.
В Amplitude наша цель — предоставить простую в использовании интерактивную аналитику продуктов, чтобы каждый мог найти ответы на свои вопросы о продукте. Чтобы обеспечить удобство работы, Amplitude должен быстро предоставить эти ответы. Поэтому, когда один из наших клиентов пожаловался на то, сколько времени потребовалось для загрузки раскрывающегося списка свойств события в пользовательском интерфейсе Amplitude, мы приступили к детальному изучению проблемы.
Отслеживая задержку на разных уровнях, мы поняли, что одному конкретному запросу PostgreSQL потребовалось 20 секунд для завершения. Для нас это стало неожиданностью, так как обе таблицы имеют индексы в соединяемом столбце.
Медленный запрос
Производительность приложений на основе PostgreSQL: явные и скрытые задержки
2016-06-28 в 13:14, admin, рубрики: batch, C, client driver, java, jdbc, latency, libpq, network, orm, pdjdbc, performance, pipeline, postgresql, postgresql performanceЕсли вы пытаетесь оптимизировать производительность Вашего основанного на PostgreSQL приложения, Вы наверняка пользуетесь базовыми инструментами: EXPLAIN (BUFFERS, ANALYZE), pg_stat_statements, auto_explain, log_statement_min_duration, и т.д.
Возможно Вы смотрите в сторону конфликтов блокировок с помощью log_lock_waits, следите за поведением ваших контрольных точек и т.д.
Но задумывалились ли Вы о задержках в сети? Игроки знают о ней, но имеет ли это отношение к Вашему серверу с приложением?