Ric

What do you mean my code isn't readable? 🤔

#PHP #SQL

🇵🇸 Álvaro González

I was reviewing code from a colleague where she would update 20 million rows one by one after doing JSON manipulations in #PHP, and my feedback was that it could be done with a single query, which I enclosed. I could clearly feel her astonished face in the chat window while I answered her questions. For younger generations, #SQL has become a dark arcane spell from the Ancient People.

Habr

Агрегированная витрина для дэшборда

Кажется, это не особо сложная задача - построить витрину для дэшборда, однако, я хочу отметить одну важную особенность при построении агрегированной витрины.

habr.com/ru/articles/915056/

#построение_агрегированной_витрины #BI #дэшборд #витрина_данных #sql

Агрегированная витрина для дэшборда

Кажется, это не особо сложная задача - построить витрину…

Хабр
Data Quine

"Watch a Complete NOOB Try DuckDB and DuckLake for the first time"

youtu.be/R_tgEBaEDf0?si=5vaGWo

#DuckLake #DuckDB #Parquet #SQL

May 31, 2025, 14:55 · · · 0 · 0
Farooq | فاروق

So I am thinking about launching a #FOSS #searchengine locally. It would cache so when I don't have internet access, I could browse the small web and enjoy great articles. I could also give access to interested friends and family.

Do you have suggestions other than #yacy and #wiby?

Yacy seems better but the search quality is not good. And regarding wiby, it uses #sql for the database :/

Boosts very much appreciated.

PS: The blogs which do #linkdump like @82mhz would be a very good seed. Already roasted meat ready to be served :)

#opensource #freesoftware #websearchengine #websearch #opensourcewebsearch #web #smallweb #askfedi #askfediverse #techadvice #techquestion #tech #technology #computer

Habr

T-SQL в .NET Core EF Core: Гибридный подход к производительности и гибкости (Переосмысление с учетом обсуждения)

Секретное оружие в .NET Core: Почему вы игнорируете мощь T-SQL? Ваши LINQ-запросы становятся громоздкими? Производительность упирается в потолок? Возможно, вы упускаете нечто важное. Эта статья — приглашение взглянуть на привычные инструменты под новым углом. Мы исследуем гибридный подход, который позволяет использовать весь потенциал Microsoft SQL Server, выходя за рамки стандартного взаимодействия через EF Core. Узнайте, как T-SQL может упростить сложные задачи, повысить производительность и сделать вашу архитектуру более гибкой. Это не просто технический трюк, а переосмысление роли СУБД в современном приложении. Готовы узнать, как использовать "скрытые" возможности MSSQL и почему это может быть именно то, что нужно вашему проекту? Читать об этом

habr.com/ru/articles/914378/

#net #net_core #ef #entityframework #linq #tsql #sql #mssql #mssqlserver #database_development

T-SQL в .NET Core EF Core: Гибридный подход к производительности и гибкости (Переосмысление с учетом обсуждения)

Это вторая версия статьи. Первая версия: https://habr.com/ru/articles/906522/…

Хабр
Samuel Smith ✅

@petergleick I don't have alter trace permissions on the #SQL server so I have to ask the admin every time I want to do a trace.
My work email inbox is blessedly sparse though, which is really nice.

Habr

Массивы вместо self-join: как писать быстрые запросы в ClickHouse

Привет, Хабр! Я — Максим Шитилов, продуктовый аналитик в каршеринг-сервисе Ситидрайв. Каждый день мы обрабатываем большие объёмы данных, и ClickHouse — один из наших ключевых инструментов. Если вы когда-либо пытались связать события с временными интервалами или рассчитать метрику за определённое окно после события, то наверняка сталкивались с типичной конструкцией на self-join. Вроде бы работает, но запрос становится громоздким, ресурсоёмким и плохо масштабируется. В этой статье я расскажу, как решать такие задачи проще и эффективнее — с помощью массивов, arrayFilter и arrayMap. Покажу, как отказаться от self-join’ов без потери точности, ускорить обработку и упростить код. Примеры — из реальных бизнес-кейсов: телеметрия, аренды, GMV и события, которые нужно связать между собой по времени. Так как схожих решений на просторах интернета я не нашёл, предлагаю назвать этот подход “Array Join Pattern”. Если метод окажется полезным для сообщества, то такой паттерн легко будет найти другим аналитикам и девам.

habr.com/ru/companies/citydriv

#sql #ClickHouse #телеметрия #каршеринг #массивы #каршеринговый_сервис

Массивы вместо self-join: как писать быстрые запросы в ClickHouse

Привет, Хабр! Я — Максим Шитилов, продуктовый аналитик…

Хабр
Habr

PondPilot: как мы сделали локальный SQL-редактор в браузере на DuckDB и WASM

Любой, кто хоть раз пытался «по-быстрому» проанализировать CSV-файл или прототип БД, сталкивался с выбором из неудобств: открывать в Excel, запускать Jupyter, возиться с pandas, или поднимать Postgres/ClickHouse ради пары запросов. Мне показалось странным, что в 2025 году до сих пор нет удобной zero-setup SQL-песочницы для локальных данных. Так родился PondPilot - open-source инструмент для анализа данных, работающий прямо в браузере, без серверов и настройки.

habr.com/ru/articles/913682/

#sql #duckdb #duckdb_wasm

PondPilot: как мы сделали локальный SQL-редактор в браузере на DuckDB и WASM

Любой, кто хоть раз пытался «по-быстрому» проанализировать…

Хабр
maschmi

Today I learned one can create an alias which executes a custom #java function via #sql in a #H2 database. Combine this with a #springboot or other application allowing #sqlinjection and "oops, compromised". Lucky for me it was only an exercise and not in a real application.

Someone else wrote about it: medium.com/r3d-buck3t/chaining

And here are the official docs: h2database.com/html/commands.h

I truly miss the days I did not know of such things...

Chaining Vulnerabilities in H2 Database for RCE - R3d Buck3T - Medium

Today, we will talk about chaining 2 vulnerabilities…

R3d Buck3T
Habr

Иногда приходится¹ копаться² в кишках³ Apache Spark

¹ …просто потому, что другого варианта добиться необходимого результата тупо не существует. ² и да, довольно-таки глубоко. ³ нет, серьёзно! Давайте рассмотрим следующий бизнесовый кейс. Дано: реально большие данные. Очень много датасетов по много терабайтов каждый, — в сумме объём тянет на петабайты. Лежат в облаке, но это не важно. Важно, что мы эти данные покупаем в «сыром» виде, каким-то образом «готовим», а потом перепродаём конечному потребителю. Требуется: при подготовке каждого из датасетов разделить его согласно значениям одного или нескольких полей, составляющих его записи, на несколько. И это одна из особенно часто встречающихся в нашем процессе операций. Довольно-таки сложный, продвинутый ETL у нас. Поясню на типичном примере.

habr.com/ru/articles/913244/

#кейс #etl #apache_spark #java #pipeline_automation #hadoop_stack #big_data #big_data_tools #big_data_solutions #sql #никто_не_прочитает_эту_статью #написанную_для_отчётности_по_гранту

Иногда приходится¹ копаться² в кишках³ Apache Spark

¹ …просто потому, что другого варианта добиться необходимого…

Хабр