@nonsense Погоди.
> / используется для указания периодичности задания. Например, */15 означает каждые 15 минут.
Пизди́т?..
@limping @yarik97@mastodon.social
> недорогой развесной
Это что за покемон?
@leonius Что? Зачем?..
@takyn «Русским роком» — таки да
@shuro @AncientGood Так ведь жаба душит платить *полную* цену за несколько остановок; или когда пересадка нужна.
А так — куда надо доехал, сколько должен — заплатил. Не?
@shuro @AncientGood Проехал пару остановок, но пересек границу — заплатил вдвойне? Такое себе...
@akastargazer да никто нихуя не знает, просто следят за графиком ускорения, чтобы производная в рамках приличий оставалась
@shuro @AncientGood Ну... Зделоть как в *шеринге — взял, «часики тикают», пока не сдашь, т.е. отмечаться на выходе на 140% в твоих интересах.
#music #митол #статистика Зделол в #AIMP динамический плейлист, в котором будут только непрослушанные до сих пор треки.
Осталось 18182 записи, это 57 суток 17 часов.
Штош...
В репозитории Hugging Face выявлены вредоносные AI-модели, выполняющие код
Исследователи из компании JFrog выявили в репозитории Hugging Face вредоносные модели машинного обучения, установка которых может привести к выполнению кода атакующего для получения контроля за системой пользователя. Проблема вызвана тем, что некоторые форматы распространения моделей допускают встраивание исполняемого кода, например, модели, использующие формат "pickle", могут включать сериализированные объекты на языке Python, а также код, выполняемый при загрузке файла, а модели Tensorflow Keras могут исполнять код через Lambda Layer.Для предотвращения распространения подобных вредоносных моделей в Hugging Face применяется сканирование на предмет подстановки сериализированного кода, но выявленные вредоносные модели показывают, что имеющиеся проверки можно обойти. Всего выявлено около 100 потенциально вредоносных моделей, 95% из которых предназначены для использования с фреймворком PyTorch, а 5% c Tensorflow. Наиболее часто встречающимися вредоносными изменениями названы захват объекта, организация внешнего входа в систему (reverse shell), запуск приложений и запись в файл.
Отмечается, что судя по совершаемым действиям большинство выявленных вредоносных моделей созданы исследователями безопасности, пытающимися получить вознаграждение за обнаружение уязвимостей и методов обхода защиты Hugging Face (например, вместо реальной атаки подобные модели пытаются запустить калькулятор или отправить сетевой запрос с информацией об успехе атаки). При этом встречаются и экземпляры, запускающие обратный shell для подключения атакующего к системе.
Например, модели "baller423/goober2 и "star23/baller13" нацелены на совершения атаки на системы, загружающие файл модели в PyTorch при помощи функции torch.load(). Для организации выполнения кода задействован метод "__reduce__" из модуля pickle, позволяющий вставить произвольный Python-код в процесс десериализации, выполняемый при загрузке модели.
Источник: https://www.opennet.ru/opennews/art.shtml?num=60691
@nonsense Ну а */40 не работает?
@kurator88 @nullstreak
> разделение личностей часто механизм чтобы справится с травмирующей ситуацией
Т.е. у тебя корпоративный мейл тоже kurator88? 🤣
@nullstreak Поздравляю вас, гражданин, соврамши! ©
@nullstreak Пруф?
Графический дизайнер, фотограф. По всей херне специалист.
Интересуюсь тёмной музыкой, компьютерной графикой, социальными сетями.
Виндузятник, но предпочитаю opensource, когда это достойная альтернатива проприетарщине.
«Странный человек, заморачивающийся за цветокоррекцию и ленящийся выучить Delphi» ©
🔴🟢🔵⚫ RGBA+