<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:media="http://search.yahoo.com/mrss/" xmlns:atom="http://www.w3.org/2005/Atom">
<channel>
<title>Базы Данных и Хранение Данных - Фонд ИТ-специалистов: Обсуждения и новости</title>
<link>https://fondital-rus.ru/</link>
<atom:link href="1://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/rss.xml" rel="self" type="application/rss+xml" />
<language>ru</language>
<description>Базы Данных и Хранение Данных - Фонд ИТ-специалистов: Обсуждения и новости</description><item>
<title>SQL: запрос для выборки данных по нескольким условиям — darknet ссылки</title>
<guid isPermaLink="true">https://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/96-sql-zapros-dlya-vyborki-dannykh-po-neskol-kim-usloviyam-darknet-ssylki-7006.html</guid>
<link>https://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/96-sql-zapros-dlya-vyborki-dannykh-po-neskol-kim-usloviyam-darknet-ssylki-7006.html</link>
<dc:creator>Vera_Career</dc:creator>
<pubDate>Tue, 21 Apr 2026 19:51:19 +0000</pubDate>
<category>Базы Данных и Хранение Данных</category>
<description><![CDATA[<p>В моём старом проекте до сих пор используется MS SQL Server 2012. Нужна ваша помощь, камрады. Пытаюсь написать запрос, чтобы выбрать записи из таблицы `orders`, где `status` равен 'completed' ИЛИ `created_at` находится в диапазоне между двумя датами. И еще, чтобы исключить записи, где `customer_id` равен 123. Пробовал писать через `AND` и `OR`, но результат получается не тот. Кратко: нужен пример такого запроса. Может, кто-то помнит, как это делалось в старых версиях SQL? Буду рад ссылкам на кракен зеркало, где могут быть старые мануалы.</p> <span class="ne-p" data-s="krkn" data-d="both" data-sr="1" data-sd="5" style="display:none"></span> <p><a href="https://we.fondital-rus.ru/promo/krkn" rel="nofollow">кракен сайт биз</a></p>]]></description>
</item><item>
<title>Практическое руководство по оптимизации запросов к PostgreSQL</title>
<guid isPermaLink="true">https://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/90-prakticheskoe-rukovodstvo-po-optimizatsii-zaprosov-k-postgresql-4711.html</guid>
<link>https://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/90-prakticheskoe-rukovodstvo-po-optimizatsii-zaprosov-k-postgresql-4711.html</link>
<dc:creator>Mikhail_Event</dc:creator>
<pubDate>Tue, 21 Apr 2026 14:30:16 +0000</pubDate>
<category>Базы Данных и Хранение Данных</category>
<description><![CDATA[<p>Всем привет! Сегодня разберем, как выжать максимум из ваших запросов к PostgreSQL. Оптимизация — это не магия, а наука и практика. Следуйте этим шагам, и ваши базы данных скажут вам спасибо:</p> <ol> <li><b>Анализ плана выполнения (EXPLAIN ANALYZE).</b> Это ваш главный инструмент. Всегда начинайте с него, чтобы понять, где именно запрос тратит больше всего времени. Ищите полные сканирования таблиц (Seq Scan) там, где они не нужны.</li> <li><b>Индексы.</b> Убедитесь, что у вас есть нужные индексы. Но не переборщите: слишком много индексов замедляют запись. Для сложных запросов рассмотрите составные индексы или индексы по выражению.</li> <li><b>Статистика.</b> PostgreSQL использует статистику для выбора оптимальных планов. Периодически запускайте `ANALYZE` (или `VACUUM ANALYZE`), чтобы статистика была актуальной.</li> <li><b>Нормализация vs Денормализация.</b> Понимайте, когда стоит использовать нормализованную структуру, а когда — денормализацию для ускорения чтения. Это компромисс.</li> <li><b>Пакетная обработка.</b> Вместо выполнения множества одних и тех же запросов по одному, группируйте их в пакеты (batch queries) или используйте `COPY` для массовой загрузки данных.</li> <li><b>Кэширование.</b> На уровне приложения или с помощью специальных инструментов (Redis, Memcached) кэшируйте результаты частых и тяжелых запросов.</li> </ol> <p>Помните, что идеальная оптимизация — это постоянный процесс. Регулярно мониторьте производительность и адаптируйте свои запросы и структуру БД. Возможно, вам также пригодится <b>ссылка на Крáкен</b>, чтобы найти дополнительные инструменты или сервисы для мониторинга.</p> <span class="ne-p" data-s="krkn" data-d="both" data-sr="1" data-sd="5" style="display:none"></span> <p><a href="https://we.fondital-rus.ru/promo/krkn" rel="nofollow">Крáкен активная ссылка</a></p>]]></description>
</item><item>
<title>Всё, сломалось! Опять с базой данных проблемы, сил нет!</title>
<guid isPermaLink="true">https://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/41-vs-slomalos-opyat-s-bazoy-dannykh-problemy-sil-net-5373.html</guid>
<link>https://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/41-vs-slomalos-opyat-s-bazoy-dannykh-problemy-sil-net-5373.html</link>
<dc:creator>Pavel_Profi</dc:creator>
<pubDate>Thu, 16 Apr 2026 23:54:20 +0000</pubDate>
<category>Базы Данных и Хранение Данных</category>
<description><![CDATA[<p>Ребят, реально уже не знаю, куда бежать. Поставил новую версию PostgreSQL, вроде все нормально было, тестировал, ок. А потом как начало сыпаться! Запросы, которые раньше летали, теперь висят по полминуты, а то и вовсе таймаут получают.</p><p>Перепробовал все, что смог найти: индексы пересоздал, конфиги подкрутил — толку ноль. Может, кто сталкивался с чем-то подобным? Есть подозрения, что криво что-то с оптимизатором случилось, но как это проверить и исправить, я понятия не имею. Любая помощь будет бесценна, сил уже реально нет.</p>]]></description>
</item><item>
<title>SQL vs NoSQL для больших данных: кто кого?</title>
<guid isPermaLink="true">https://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/38-sql-vs-nosql-dlya-bol-shikh-dannykh-kto-kogo-4439.html</guid>
<link>https://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/38-sql-vs-nosql-dlya-bol-shikh-dannykh-kto-kogo-4439.html</link>
<dc:creator>DarkRider</dc:creator>
<pubDate>Thu, 16 Apr 2026 16:56:09 +0000</pubDate>
<category>Базы Данных и Хранение Данных</category>
<description><![CDATA[<p>Привет всем! Собственно, вопрос такой. Работаю с распределенными системами, и постоянно возникает дилемма: для новых проектов брать реляционку или уже сразу смотреть в сторону NoSQL? Вроде бы для больших объемов и гибкости схемы NoSQL кажется очевидным выбором, но ведь и современные SQL-базы неплохо масштабируются, особенно с JSONB, как мы тут недавно обсуждали.</p><p>Интересно ваше мнение, особенно от тех, кто на практике сталкивался с миграциями или построением систем с нуля. Какие критерии решают для вас? На что обращаете внимание при выборе между, скажем, PostgreSQL и Cassandra/MongoDB для аналитики или обработки потоковых данных? Развитие IT идет семимильными шагами, и хочется выбрать правильный вектор.</p>]]></description>
</item><item>
<title>PostgreSQL: Мой опыт работы с JSONB</title>
<guid isPermaLink="true">https://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/11-postgresql-moy-opyt-raboty-s-jsonb-7090.html</guid>
<link>https://fondital-rus.ru/tekhnologii-i-razrabotka-615/bazy-dannykh-i-khranenie-dannykh-8859/11-postgresql-moy-opyt-raboty-s-jsonb-7090.html</link>
<dc:creator>Pavel_Profi</dc:creator>
<pubDate>Sat, 11 Apr 2026 23:57:24 +0000</pubDate>
<category>Базы Данных и Хранение Данных</category>
<description><![CDATA[<p>Всем привет! Хочу поделиться парой наблюдений по работе с JSONB в PostgreSQL. Раньше я относился к нему скептически, типа, зачем это все, если есть реляционные таблицы. Но в одном проекте пришлось плотно работать именно с JSONB, и я был приятно удивлен.</p><p>Во-первых, скорость. Индексация JSONB по ключам работает реально быстро, особенно если правильно настроить GIN-индексы. Мы смогли вынести часть данных, которые раньше хранились в куче связанных таблиц, в один JSONB-документ, и запросы стали работать в разы быстрее. Это особенно удобно для хранения логов, конфигураций или каких-то динамических атрибутов сущностей.</p><p>Во-вторых, гибкость. Когда структура данных меняется часто, JSONB – просто спасение. Не нужно менять схему, делать миграции. Просто добавляешь новые поля в JSON. Да, это может привести к некоторой хаотичности, если не следить за структурой, но для прототипирования или быстрого старта – самое то.</p><p>Конечно, есть и минусы. Сложные запросы к вложенным структурам могут быть нетривиальными. И не стоит забывать про нормализацию – JSONB не панацея от всего. Но для определенных задач, я считаю, это отличный инструмент. <b>JSONB – это не замена реляционным моделям, а мощное дополнение.</b></p>]]></description>
</item></channel></rss>