The Dragon Code News
261 subscribers
215 photos
7 videos
4 files
237 links
Рассказываем о том, над чем работаем и что может быть полезным разработчикам 🙂

dragon-code.pro
Download Telegram
Позавчера Тейлор запустил новый сервис - Laravel Nightwatch.

Это сервис мониторинга работы приложения.

Краткий отзыв по истечении двух дней его использования вместе с анти-спам ботом @KvedeBot:

- Выдаёт общую информацию (есть или нет проблемы), в детали не вдаётся;
- Показывает список реально вызываемых консольных команд. Так, например, я узнал о команде php artisan schedule:finish, которая была вызвана 2'120 раз за это время... И да, эта команда также лимиты жрёт;
- Можно увидеть запросы к БД, но без самих данных - только конструкт;
- От внешних запросов виден лишь адрес без тела запроса;
- По общей статистике использования видим что из 200к бесплатных эвентов за двое суток приложение сожрало 173'596 (87%), из которых 49'009 эвентов - работа с кэшем. Да, эти cache hit, read, write и т.д. тоже считаются.

Таким образом, пришёл к выводу, что это MVP продукта и, с большой долей вероятности, он действительно будет хорош, но - потом. В текущем исполнении Nightwatch, скажем так, публикует хлам из подноготной фреймворка. Моё мнение, он делает это для того, чтобы побыстрее сожрать бесплатные лимиты дабы люди оформляли подписку.

В целом, сервис прикольный, но на полном серьёзе на сервере его использовать ну такое.
5👍31
11к звёзд тютелька в тютельку!

Спасибо всем за поддержку! 🍻

https://dragon-code.pro/
🔥8👏1
Не откладывайте жизнь на "потом" - живите здесь и сейчас.

Без фанатизма, конечно же 😉

И будьте счастливы! 🥳
4👍3
☠️ Docker Dev Environment умер! Да здравствует Docker Compose! 🚀

Начиная с версии Docker Desktop 4.42 функционал Dev Environment объявлен устаревшим и его управление вырезано из интерфейса при том, что фактически раннее созданные контейнеры продолжают работать в deprecated режиме.

В связи с этим, была обновлена инструкция по запуску наших контейнеров по новым старым правилам.

Прелесть в отсутствии необходимости пересоздавать волюмы - докер сам их подключит к новым образам. Исключение составляет контейнер ElasticSearch - его волюм надо руками удалить иначе не заведётся.

Мигрировать на новую схему очень просто:

1. Через гуй останавливаем контейнеры, удаляем их.
2. Также удаляем images для загрузки обновлённых версий.
3. Волюмы не трогаем.
4. После этого выполняем команды:

git clone [email protected]:andrey-helldar/docker-environment.git dev

cd dev

docker-compose up -d


И всё 😎

Обновлённая инструкция доступна в README проекта:

https://github.com/andrey-helldar/docker-environment?tab=readme-ov-file#installation--settings
👍3
Скилл эксперта в Laravel подтверждён на Хабре😎

Попробуйте тоже: https://career.habr.com/tests/skills/laravel
4🔥1
🙊Появился новый король переводчиков — XdocAI

Эта нейронка легко справляется с самыми сложными приемами речи, сохраняет контекст и может работать с огромными файлами БЕСПЛАТНО.

• Поддерживает 108 языков с точностью до 98%.
• Справляется с большими книгами, пдфками, доками.
• Имеет большую экспертную базу по медицине, финансам и юриспруденции.

GPT News | ChatGPT BOT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
4 дня назад вышел новый стандарт стиля кода - PER-CS v3.0

Документ миграции с версии PER-CS 2.0 можно найти здесь.

https://github.com/php-fig/per-coding-style/releases/tag/3.0.0
🚀 Быстрый запуск локального ИИ ассистента в PhpStorm

Для этого Вам нужна видеокарта с RTX ядрами от NVidia или RDNA от Radeon, иначе скорость работы нейронки будет низкой.

Также нужен Docker.


Теперь можно выполнить консольные команды:

docker run -d -p 11434:11434 --gpus=all -v ollama:/root/.ollama --name ollama --restart always ollama/ollama

docker exec ollama ollama run gemma3:12b


где gemma3:12b - это модель и её размер с сайта Ollama. Размер модели выбирайте не больше размера видеопамяти. Например, в карточке с 12 Гб VRAM самой большой моделью будет gemma3:12b иначе все вычисления лягут на CPU, а это очень-очень медленно. Если не нравится модель gemma3, тогда можете выбрать любую другую на сайте.

После того как запустили Ollama в докере и загрузили в неё модель, устанавливаем плагин ProxyAI в PhpStorm (раньше плагин назывался CodeGPT) и легко настраиваем.

Настройки плагина находятся в разделе File | Settings | Tools | ProxyAI.

1. Выбираем провайдер "Ollama (local)";
2. В разделе "Ollama (local)" жмём кнопку "Refresh models" для обновления списка доступных моделей и выбора нужной.

Нюанс один - не все модели отвечают на русском языке. Например, gemma3 принципиально отвечает только по-английски, хотя всё прекрасно понимает.
👍5
ТОП-3 игры, в которые я играл свыше 150 часов:

1. Tom Clancy's Rainbow Six Siege
2. Cyberpunk 2077
3. Horizon Forbidden West

Топ-10 игр после них:

1. Tom Clancy's The Division 2
2. S.T.A.L.K.E.R. 2: Heart of Chornobyl
3. Metro Exodus
4. Hogwarts Legacy
5. Middle-earth: Shadow of War
6. Sons Of The Forest
7. Horizon Zero Dawn
8. HELLDIVERS 2
9. Detroit: Become Human
10. Atomic Heart


Как это относится к разработке? Легко!
Я так расслабляюсь от кода 😎
🔥2
Какой вариант стиля выберите?

Вариант 1:

protected string|Closure $column = 'value';

protected function getColumn(): Closure
{
if ($this->column instanceof Closure) {
return $this->column;
}

return fn () => $this->column;
}


Вариант 2:

protected string|Closure $column = 'value';

protected function getColumn(): Closure
{
if (is_string($this->column)) {
return fn () => $this->column;
}

return $this->column;
}