These are public posts tagged with #sql. You can interact with them if you have an account anywhere in the fediverse.
I was reviewing code from a colleague where she would update 20 million rows one by one after doing JSON manipulations in #PHP, and my feedback was that it could be done with a single query, which I enclosed. I could clearly feel her astonished face in the chat window while I answered her questions. For younger generations, #SQL has become a dark arcane spell from the Ancient People.
ClickHouse is hiring Backend Engineer - ClickPipes Platform
#golang #typescript #react #node #aws #azure #elasticsearch #gcp #kafka #sql
United Kingdom
Full-time
ClickHouse
Job details https://jobsfordevelopers.com/jobs/backend-engineer-clickpipes-platform-at-clickhouse-com-may-21-2025-041d7f?utm_source=mastodon.world&utm_medium=social&utm_campaign=posting
#jobalert #jobsearch #hiring
PlayStation is hiring Data Scientist – Data Science Analytics and Enablement (DSAE)
#python #sql
London, United Kingdom
Full-time
PlayStation
Job details https://jobsfordevelopers.com/jobs/data-scientist-data-science-analytics-and-enablement-dsae-at-playstation-com-may-19-2025-b5a61a?utm_source=mastodon.world&utm_medium=social&utm_campaign=posting
#jobalert #jobsearch #hiring
I've only scratched the surface, but I'm glad SQL isn't a mystery anymore. I really recommend the SQLBolt tutorial — it’s free, interactive, and easy to get into.
More thoughts on LinkedIn: https://www.linkedin.com/posts/alelazic_sql-sqlbolt-datascience-activity-7335610508605059073-wkZS
SQLBolt provides a set of interactive lessons and exercises…
sqlbolt.comАгрегированная витрина для дэшборда
Кажется, это не особо сложная задача - построить витрину для дэшборда, однако, я хочу отметить одну важную особенность при построении агрегированной витрины.
https://habr.com/ru/articles/915056/
#построение_агрегированной_витрины #BI #дэшборд #витрина_данных #sql
Кажется, это не особо сложная задача - построить витрину…
Хабрheise+ | Sprachmodelle aus SQL: pgai erweitert PostgreSQL um KI-Funktionen
Die PostgreSQL-Erweiterung pgai verknüpft ohne zusätzliche Middleware Daten und Sprachmodelle in einem System. LLMs lassen sich so aus SQL aufrufen.
#IT #KünstlicheIntelligenz #PostgreSQL #Spracherkennung #SQL #news
Die PostgreSQL-Erweiterung pgai verknüpft ohne zusätzliche…
iX Magazin"Watch a Complete NOOB Try DuckDB and DuckLake for the first time"
So I am thinking about launching a #FOSS #searchengine locally. It would cache so when I don't have internet access, I could browse the small web and enjoy great articles. I could also give access to interested friends and family.
Do you have suggestions other than #yacy and #wiby?
Yacy seems better but the search quality is not good. And regarding wiby, it uses #sql for the database :/
Boosts very much appreciated.
PS: The blogs which do #linkdump like @82mhz would be a very good seed. Already roasted meat ready to be served :)
#opensource #freesoftware #websearchengine #websearch #opensourcewebsearch #web #smallweb #askfedi #askfediverse #techadvice #techquestion #tech #technology #computer
T-SQL в .NET Core EF Core: Гибридный подход к производительности и гибкости (Переосмысление с учетом обсуждения)
Секретное оружие в .NET Core: Почему вы игнорируете мощь T-SQL? Ваши LINQ-запросы становятся громоздкими? Производительность упирается в потолок? Возможно, вы упускаете нечто важное. Эта статья — приглашение взглянуть на привычные инструменты под новым углом. Мы исследуем гибридный подход, который позволяет использовать весь потенциал Microsoft SQL Server, выходя за рамки стандартного взаимодействия через EF Core. Узнайте, как T-SQL может упростить сложные задачи, повысить производительность и сделать вашу архитектуру более гибкой. Это не просто технический трюк, а переосмысление роли СУБД в современном приложении. Готовы узнать, как использовать "скрытые" возможности MSSQL и почему это может быть именно то, что нужно вашему проекту? Читать об этом
https://habr.com/ru/articles/914378/
#net #net_core #ef #entityframework #linq #tsql #sql #mssql #mssqlserver #database_development
Это вторая версия статьи. Первая версия: https://habr.com/ru/articles/906522/…
ХабрSQL Workbench – Republicans not welcome
https://www.sql-workbench.eu/
#ycombinator #sql #query #tool #analyzer #gui #jdbc #database #isql #viewer #frontend #java #dbms #oracle #postgres #h2database #firebirdsql #hsql #hsqldb #sqlplus #replacement #import #export #csv #unload #convert #insert #blob #clob #xml #etl #migrate #compare #diff #structure #table
A free SQL query tool various DBMS (PostgreSQL, Oracle,…
www.sql-workbench.eu@petergleick I don't have alter trace permissions on the #SQL server so I have to ask the admin every time I want to do a trace.
My work email inbox is blessedly sparse though, which is really nice.
SQLite is 25 years old today.
Массивы вместо self-join: как писать быстрые запросы в ClickHouse
Привет, Хабр! Я — Максим Шитилов, продуктовый аналитик в каршеринг-сервисе Ситидрайв. Каждый день мы обрабатываем большие объёмы данных, и ClickHouse — один из наших ключевых инструментов. Если вы когда-либо пытались связать события с временными интервалами или рассчитать метрику за определённое окно после события, то наверняка сталкивались с типичной конструкцией на self-join. Вроде бы работает, но запрос становится громоздким, ресурсоёмким и плохо масштабируется. В этой статье я расскажу, как решать такие задачи проще и эффективнее — с помощью массивов, arrayFilter и arrayMap. Покажу, как отказаться от self-join’ов без потери точности, ускорить обработку и упростить код. Примеры — из реальных бизнес-кейсов: телеметрия, аренды, GMV и события, которые нужно связать между собой по времени. Так как схожих решений на просторах интернета я не нашёл, предлагаю назвать этот подход “Array Join Pattern”. Если метод окажется полезным для сообщества, то такой паттерн легко будет найти другим аналитикам и девам.
https://habr.com/ru/companies/citydrive/articles/913866/
#sql #ClickHouse #телеметрия #каршеринг #массивы #каршеринговый_сервис
Привет, Хабр! Я — Максим Шитилов, продуктовый аналитик…
ХабрPondPilot: как мы сделали локальный SQL-редактор в браузере на DuckDB и WASM
Любой, кто хоть раз пытался «по-быстрому» проанализировать CSV-файл или прототип БД, сталкивался с выбором из неудобств: открывать в Excel, запускать Jupyter, возиться с pandas, или поднимать Postgres/ClickHouse ради пары запросов. Мне показалось странным, что в 2025 году до сих пор нет удобной zero-setup SQL-песочницы для локальных данных. Так родился PondPilot - open-source инструмент для анализа данных, работающий прямо в браузере, без серверов и настройки.
Любой, кто хоть раз пытался «по-быстрому» проанализировать…
Хабр Nouvel article !
Tester et exécuter du SQL en ligne avec RunSQL
https://blog.shevarezo.fr/post/2025/05/28/tester-executer-sql-en-ligne-runsql
Pour les développeurs, les analystes de données ou…
ShevArezo`BlogToday I learned one can create an alias which executes a custom #java function via #sql in a #H2 database. Combine this with a #springboot or other application allowing #sqlinjection and "oops, compromised". Lucky for me it was only an exercise and not in a real application.
Someone else wrote about it: https://medium.com/r3d-buck3t/chaining-h2-database-vulnerabilities-for-rce-9b535a9621a2
And here are the official docs: https://h2database.com/html/commands.html#create_alias
I truly miss the days I did not know of such things...
Today, we will talk about chaining 2 vulnerabilities…
R3d Buck3TThe DuckLake Manifesto: SQL as a Lakehouse Format.
https://ducklake.select/manifesto/
I just know I'm going to have the theme from Swan Lake as quacked by ducks in my head
DuckLake delivers advanced data lake features without…
DuckLakeИногда приходится¹ копаться² в кишках³ Apache Spark
¹ …просто потому, что другого варианта добиться необходимого результата тупо не существует. ² и да, довольно-таки глубоко. ³ нет, серьёзно! Давайте рассмотрим следующий бизнесовый кейс. Дано: реально большие данные. Очень много датасетов по много терабайтов каждый, — в сумме объём тянет на петабайты. Лежат в облаке, но это не важно. Важно, что мы эти данные покупаем в «сыром» виде, каким-то образом «готовим», а потом перепродаём конечному потребителю. Требуется: при подготовке каждого из датасетов разделить его согласно значениям одного или нескольких полей, составляющих его записи, на несколько. И это одна из особенно часто встречающихся в нашем процессе операций. Довольно-таки сложный, продвинутый ETL у нас. Поясню на типичном примере.
https://habr.com/ru/articles/913244/
#кейс #etl #apache_spark #java #pipeline_automation #hadoop_stack #big_data #big_data_tools #big_data_solutions #sql #никто_не_прочитает_эту_статью #написанную_для_отчётности_по_гранту
¹ …просто потому, что другого варианта добиться необходимого…
Хабр