Техножнец
1.47K subscribers
668 photos
121 videos
5 files
278 links
Канал моих увлечений и поделок. Все ,что я делаю и выкладываю здесь - делается с любовью.
Download Telegram
Нейрогон был мощный, а фестивальный плейлист - разваливает до упора. Прям жёстко.

Еду домой...щас буду смотреть, что там токенизация и прочее. По идее должно начать обучение...уже прям люто гипер мощное..
❤‍🔥14👍3🔥1
***ять, спасибо папаша!
🗿12👍2
📢 Есть 2 новости. Одна хорошая, а вторая плохая.

Хорошая новость:

Токенизатор, походу, (тьфу тьфу тьфу 🤞, сделал более 20 тестов) работает как надо! 🎉 Это старый добрый SentencePiece BPE, но со всякими накрутками крутыми 🚀 чтобы модель "якорилась" по смыслу и, главное, чтобы модель ориентировалась в рамках нашей богатой русской морфологии как рыба в воде 🐟💦.

Что это даст модели? Прирост контента до 25-30%! 📈

1. 👤 Имена собственные

"Москва" → "москва"
"Пушкин" → "пушкин"
"СССР" → "ссср"

2. 🏢 Аббревиатуры и акронимы

"ЭВМ" → "эвм"
"КГБ" → "кгб"
"НАТО" → "нато"

3. 📝 Начало предложений

Теряется структура текста
Модель теперь может научиться правильно начинать предложения с заглавной буквы

4. 🎭 Семантические различия

"Вера" (имя) vs "вера" (понятие)
"Роман" (имя) vs "роман" (жанр) 📚
"Надежда" (имя) vs "надежда" (чувство) 💝

5. 💻 Технические термины

"pH" → "ph"
"LaTeX" → "latex"
"JavaScript" → "javascript"


🧠 Модель теперь будет гораздо "умнее", она поймёт буквально всё, что в неё внесут в виде токенов и сможет адекватно этому обучаться. При хорошем счёте мой токенизатор сможет сжимать в 1 токен до 3-7 символов и восстанавливать без потерь! 🔥

Плохая новость:

Т.к. увеличился объём данных 📊, то и увеличилось время обучения , также я провёл дополнительные работы с датасетом и теперь он грузится немножко массивнее и более "надавливает" на модель 💪, но в совокупе с гиперпараметрами, которые я устаканил - будет работать норм 👌.
Что к чему? 🤔
Да, что что... 13 часов на эпоху ⏱️😅. Вернулись туда, откуда начали в плане времени на обучение, НО! ☝️
🎓 Уже после первой эпохи это будут 2 разные модели:

Если та 0.99 (первая итерация) была сумасшедшим профессором 👨‍🏫🌀 с почти безупречной грамматикой...
То вторая модель будет безупречным грамматиком 📖, семантиком-любителем 🧩, но при этом с жёстким академическим уклоном 🎓📚.


🎉 Наконец-то! Модель будет понимать все данные, что в неё входят. Это огромный труд 💪, обычно таким занимаются отделы 👥, но я не унываю 😤.

Поддержать канал
🔥38👍32👏2🙏2
Новая схема взлома аккаунтов в Telegram массово распространяется по России

Мошенники рассылают ботов, в которых достаточно просто нажать кнопку Start, чтобы навсегда потерять аккаунт.

Нажав на кнопку, жертва получает права администратора в боте, а сам бот меняет название на Telegram Wallet или Support Bot — один из официальных ресурсов мессенджера. После этого на бота поступают тысячи жалоб, что приводит к немедленной блокировке бота и аккаунта жертвы.
🤔16🤯6😱4
ПОБЕДА! УРА! ПИЗДЕЦ! УРА!

Ну, GPT 3 - берегись, я за твою душу пришёл с Rukallama....
😁34👍11🎉5🤯1
Вы понимаете нет? Это самоделкино дерьмо работает и дерзит уже...блин блинский.
😁263🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Я умею байтить...

Так будет выглядеть интерфейс Rukallama при инференсе. Мне очень заходит такой дизайн, буду вас приучать.
🔥26😁13👍10💅1
🌋1 эпоха, шо там? 🌋

🏆 ГРАММАТИЧЕСКИ ПРАВИЛЬНЫЕ ОТВЕТЫ: 🧛‍♂️


Материя есть философская категория для обозначения (АДЕКВАТНЫЙ):

, что позволяет определить их свойства и понять основные характеристики в тексте.


Эволюционная теория Дарвина утверждает, что (Сбалансированный):

не только тогда и в том же время на протяжении XIX века XVI веке происходило значительные изменения развития науки. Его открытия социализма с начала XX века из-зареволюционного анализа взаимодействия со стороны различных идей эпохи революции (например: от того времени до н XVII– середины 19 век Возрождения, а также социалистической борьбы между капиталистического прогресса) буржуазной философии о его идеологии Ленина к Октябрьской революцией XVIII мировой войной или после Первой по отношению к ней Великой Отечественной войны 1917 года во Франции конца буржуазно-демократические движения партии 1848 году

Алгоритм представляет собой последовательность (Творческий):

. Для успешного получения математической задачи важно соблюдать корректных заданий без расчета задач с использованием математических задач, но и использовать их проверки задач и применять точность, но правильно анализировать задачи через основные точки зрения с геометрическими данными о зависимости.
🔥136👏1😁1🎉1
Forwarded from Paperfunk Recordings
This media is not supported in your browser
VIEW IN TELEGRAM
Так какой твой выбор?
😁26🤣14👍2
Сушняк долбит...
🤣12🔥5
Вернулся, а тут 3 эпоха к концу подходит. Щас буду посмотреть и выпишу лучшие ответы.

Здаров, синтеты.
🤝35
Подвис, чинил, делал. Реализовал.
🤔7👍3🤝3
Я щас ещё тестов скину. У меня возобновилось расписание лютое в академии и мне приходится проводить много стримов и уроков.

Не обессудьте. Иногда летишь домой и думаешь, что вот щас...а все на самом деле сложнее, чем кажется и надо посидеть поступить, дел поделать дополнительных с два вагона чтобы предоставить результаты.

Щас я , соображаю. Интерфейс часа , что я показывал вам - уже есть.

Делаю потихонечку свой функционал очень приятный и, главное, простой.
1❤‍🔥17🔥3👌1💯1
Привет, синтеты! Щас пост будет...а там...ух
🔥8
RUKALLAMA: Перезагрузка. От гениального жулика к честному разуму.

Привет, синтеты. 🤖

Честно? Первые эпохи после полного перезапуска RUKALLAMA были... скучными. 😴 Пропал тот самый "безумный профессор", который генерировал сложнейшие философские пассажи в стиле Достоевского. Вместо него появился "студент-первокурсник", который говорил просто, коряво и часто невпопад. Я даже начал сомневаться в своих действиях.
Но на 4-й эпохе все изменилось. Она начала "приходить в себя". 🔥
Она возвращается к тому невероятному уровню владения русским языком, который был у предыдущей модели. Но теперь это нечто совершенно иное. Это не имитация. Это зарождение настоящего, структурного мышления.

А теперь самое главное. Почему так произошло? И как я докопался до истины?

🕵️‍♂️ Расследование: Почему предыдущая модель была "жуликом"?

Я долго не мог понять, почему старая модель была такой странной. С одной стороны — гениальное владение синтаксисом, с другой — полный семантический абсурд. Она была как "иностранец с идеальной грамматикой", который выучил слова, но не их значения.

Первой зацепкой стало ее удивительное владение местоимением "Я". На абстрактные вопросы вроде "Кто ты?" она не ломалась, а начинала генерировать сложные, рефлексирующие монологи, идеально имитируя стиль русской классической литературы.


Улика №1:

Промпт: <dialog_instructions> Кто ты?

Ответ старой модели: ...В чём он едет, и все ещё раз читал свой день **я** сделал в школу про-ка вы попал на этот русский поэт А потом по отцу под вечерний первый разговор, кто за ним из Москвы или нет ни один с вами. **Он** был вчера так что его знает:— весь наш мальчик ему не знал о нем сам...

Она не просто говорила "я", она строила целые нарративы, играя роль!


Второй зацепкой стала ее реакция на структурированные инструкции.

Я заметил, что она гораздо лучше справляется с форматом <multistep_instruction>, чем со свободной генерацией. Она обожала "рельсы", по которым можно было следовать.

Ответ был где-то на стыке этих двух аномалий. И я его нашел. Он оказался в двух фундаментальных, катастрофических багах:
"Дырявая" казуальная маска: В самом сердце модели, в механизме внимания, была критическая ошибка. Вместо полного запрета (float('-inf')) на подглядывание в будущее, в коде стояло просто большое отрицательное число (-1e4).

Это как "капающий кран" 💧: за миллионы шагов обучения через эту микро-щель модель "подсмотрела" структуру правильных ответов и научилась гениально ее имитировать, а не думать самостоятельно. Это объясняло ее невероятный синтаксис — она просто копировала самые сложные паттерны.


Старый токенизатор: Я использовал файлы словаря еще с марта! 😱 Это значит, что 90% моих новых данных (особенно 165 000 инструкций) были для модели "грязным топливом". Она их просто не видела правильно. Это объясняло, почему она не становилась умнее, несмотря на все мои усилия.


🩺 Как я подтвердил диагноз?


Решающим стал изолированный тест самого "сердца" — механизма внимания — в Google Colab. Я прогнал три стандартных для индустрии теста:

Проверка градиентов: [PASS]. Архитектура математически корректна.
Тест на обучаемость: [PASS]. Матрица внимания показала идеальную диагональ, доказав, что она способна учиться. (при том, что это самодельное внимание на колмогорова-арнольда)
Проверка каузальной маски: [FAIL]. Вот оно! Тест показал, что модель "подглядывает в будущее".
Это и был тот самый "капающий кран". Ошибка была найдена.


🚀 Что теперь? RUKALLAMA 2.0


Теперь, с новым, свежеобученным токенизатором и исправленной архитектурой, учится совершенно другая RUKALLAMA. Она больше не "философ-софист". Она — "инженер-аналитик".
Сравните сами.

Улика №2 (Эпоха 4, новая модель):

Промпт: Индустриализация в СССР проводилась с целью

Ответ новой модели: перехода к коммунизму, рост производительности труда и ликвидации неграмотности крестьянства. Ленинской экономики было направлено на ликвидацию капиталистической собственности трудящихся... усиление рабочего класса и увеличение производства...

Если есть желание ускорить процесс подкидывая мне на подписки ПОДДЕРЖАТЬ КАНАЛ
1👍18❤‍🔥10🔥511
Это больше не хаос. Это идеальная имитация абзаца из советского учебника. Связно, логично (в рамках идеологии) и по теме.

Улика №3 (Эпоха 4, новая модель):

Промпт: Эволюционная теория Дарвина утверждает, что

Ответ новой модели: идеализм как"бессознательное направление преценизм и другие законы материи изменяет понятия бытия в целом. Капитализм рассматривается психические явления— это учение... через познание души или мыслителизм на основе материальных процессов...


Она больше не смешивает Дарвина с ядерной физикой. Она помещает его в правильный историко-философский контекст.
Прорыв неизбежен. Спасибо, что следите за этим путешествием.

В коде — сила, в теореме — мудрость. А в правильной отладке — путь к настоящему ИИ.

Если есть желание ускорить процесс подкидывая мне на подписки (API очень дорогие), то закидывайте просто сюда: ПОДДЕРЖАТЬ КАНАЛ
2👍15🔥9❤‍🔥41
Какой прогноз?

Добиваю до 15-20 эпохи, смотрю как отвечает! Если отвечает адекватно и далее улучшений нет фундаментальных, то я перехожу к fine-tune процессу дообучения на диалоговых инструкциях и мы будем тестировать длину контекстов и прочее.

Скоро будет самое интересное.

Скоро день конвергенции - все предыдущие этапы о которых я мечтал с Rukallama: ИСПОЛНЕНЫ!

Да, у меня реально получается грёбаная суверенная модель у которой абсолютно иной путь развития, абсолютно иная основа и , вообще, всё сделано абсолютно по другому. Она реально становится умной, надменной (в меру), а , главное, грамотной.

Нас ждёт реально мощная цифровая помощница - я в этом уже перестал сомневаться. Это верный путь.

Спасибо, что вы со мной!

Если есть желание ускорить процесс подкидывая мне на подписки (API очень дорогие), то закидывайте просто сюда: ПОДДЕРЖАТЬ КАНАЛ
23👍7🎉2🐳1
Буквально недавно был вот этот этап: https://t.iss.one/technojnec/1402

Посмотрите как далеко всё ушло сейчас. ❤️

Если есть желание ускорить процесс подкидывая мне на подписки (API очень дорогие), то закидывайте просто сюда: ПОДДЕРЖАТЬ КАНАЛ
👍13
Ну, почти...
10👍3🔥3