The 2025 PNPL Competition: Speech Detection and Phoneme Classification in the LibriBrain Dataset
Еще одно соревнование по BCI, на этот раз предлагают декодировать речь из MEG данных.
Коротко про соревнование:
Данные: LibriBrain - 50+ часов MEG с одного человека, 306 сенсоров
Дедлайны:
- 31 июля 2025: Speech Detection
- 30 сентября 2025: Phoneme Classification
- Декабрь 2025: презентация на NeurIPS
Призы: Минимум $10k призовых, топ-3 в каждом треке.
Что решаем?
🔘 Speech Detection - бинарная классификация: есть речь или нет (F1-macro, рефмодель 68%)
🔘 Phoneme Classification - 39 классов фонем (рефмодель 60%)
Ссылки, чтобы не потеряться
proposal
website
instruction
Еще одно соревнование по BCI, на этот раз предлагают декодировать речь из MEG данных.
Коротко про соревнование:
Данные: LibriBrain - 50+ часов MEG с одного человека, 306 сенсоров
Дедлайны:
- 31 июля 2025: Speech Detection
- 30 сентября 2025: Phoneme Classification
- Декабрь 2025: презентация на NeurIPS
Призы: Минимум $10k призовых, топ-3 в каждом треке.
Что решаем?
Ссылки, чтобы не потеряться
proposal
website
instruction
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥2👀2
Update from the Neuralink
June 2025
https://x.com/neuralink/status/1938643490600276142?t=y2MlVwQJGXMwSBFw26Cp4A&s=35
June 2025
https://x.com/neuralink/status/1938643490600276142?t=y2MlVwQJGXMwSBFw26Cp4A&s=35
❤4🦄1
MEG hackathon update
Мы начали тренить модельки на соревнование по декодированию речи из мэга. Сейчас активен первый трек, бинарная классификация(есть речь /нет речи).
Я потратил 1.5 недели, чтобы сделать сильный baseline. Решил что он должен быть простым, поэтому никаких attention и rnn, только мои любимые свёртки!
Я уверенно залетел на лидерборд с результатом 85%. Минимальный порог от организаторов - 68%.
Со следующей недели ко мне присоединится ещё один админ этого канала(Лехас), а также ребята с которыми мы делали ALVI Interface. Будем собирать трансформер! А то пока все мои наивные экспы выглядят оч печально. Тупо не работает. Будем фиксить)
В общем не откладывайте, остался месяц. Тренируйте модели и залетайте на лидерборд. Советую обратить внимание на аугментации и на лоссы. У меня очень сильно повлияло на результат.
Ссылка на соревнование
Мы начали тренить модельки на соревнование по декодированию речи из мэга. Сейчас активен первый трек, бинарная классификация(есть речь /нет речи).
Я потратил 1.5 недели, чтобы сделать сильный baseline. Решил что он должен быть простым, поэтому никаких attention и rnn, только мои любимые свёртки!
Я уверенно залетел на лидерборд с результатом 85%. Минимальный порог от организаторов - 68%.
Со следующей недели ко мне присоединится ещё один админ этого канала(Лехас), а также ребята с которыми мы делали ALVI Interface. Будем собирать трансформер! А то пока все мои наивные экспы выглядят оч печально. Тупо не работает. Будем фиксить)
В общем не откладывайте, остался месяц. Тренируйте модели и залетайте на лидерборд. Советую обратить внимание на аугментации и на лоссы. У меня очень сильно повлияло на результат.
Ссылка на соревнование
🔥7🤓3⚡1🥴1
Brain-to-text '25
Самое интересное BCI соревнование этого лета наконец-то официально началось. Необходимо декодировать речь из моторной коры.
Коротко про соревнование:
Задача: Предсказать речь по активности мозга. Метрика word error rate.
Данные: 11,352 предложений, 256 электродов Utah Array, установленных в speech motor cortex
Дедлайн: 31 декабря 2025
Призы: $9000
Ссылки
paper
kaggle
Самое интересное BCI соревнование этого лета наконец-то официально началось. Необходимо декодировать речь из моторной коры.
Коротко про соревнование:
Задача: Предсказать речь по активности мозга. Метрика word error rate.
Данные: 11,352 предложений, 256 электродов Utah Array, установленных в speech motor cortex
Дедлайн: 31 декабря 2025
Призы: $9000
Ссылки
paper
kaggle
🤯10🔥2🤔2❤1
meg speech detection update v2
Осталось пять дней! Ещё есть время залететь на лидерборд!
Мы пока что вторые, но модели все ещё тренируются
gpus go brr..
Информация о соревновании
Осталось пять дней! Ещё есть время залететь на лидерборд!
Мы пока что вторые, но модели все ещё тренируются
gpus go brr..
Информация о соревновании
❤8
meg speech decoding update v3
Закончился первый трек по бинарной классификации.
Мы вошли в тройку на паблике. Позднее расскажу, что получилось, а что нет. Почти все что я пробовал в качестве улучшений не работало😅
Наша лучшая модель это conv + transformer encoder with rope.
С сегодняшнего дня открывается доступ к следующему треку по классификации фонем.
лидерборд:
https://eval.ai/web/challenges/challenge-page/2504/leaderboard/6249
Закончился первый трек по бинарной классификации.
Мы вошли в тройку на паблике. Позднее расскажу, что получилось, а что нет. Почти все что я пробовал в качестве улучшений не работало😅
Наша лучшая модель это conv + transformer encoder with rope.
С сегодняшнего дня открывается доступ к следующему треку по классификации фонем.
лидерборд:
https://eval.ai/web/challenges/challenge-page/2504/leaderboard/6249
❤12🔥8 6
Liquid AI introduced LFM2
Ребята подняли 250М в конце прошлого года, в том числе с целью создания новых архитектур. До этого у них были работы по Liquid Time-constant Networks and continuous rnn. В общем я ожидал чего-то реально крутого и необычного.
А что по итогу получили?
По факту они взяли типичный llm attention слой. rmsnorm, swiglu activation, rope, qk norm. Почти все это было еще в llama v2.
Собрали таких 6 слоев: attn + mlp.
К этим слоям добавили 10 сверточных: conv + mlp.
Сверточные слои это double-gated causal conv layer (их LIV операторы). То есть это просто 1d свертки с gated операциями. На скрине реализация.
На этом всё. В любом случае все молодцы, но я ожидал большего.
С другой стороны. Работает же, работает же. Поэтому и ладно. Всем урок - не усложняйте ради усложнения. gated conv + transformer beat just transformer.
Но статьи нет, есть только benchmark с другими моделями. Учитывая как они учили свои модели через distillation, sft and dpo может быть все таки получилось побить конкурентов за счет тренировки и данных а не архитектуры.
Но глобально это работает так что можно юзать.
blogpost: https://www.liquid.ai/blog/liquid-foundation-models-v2-our-second-series-of-generative-ai-models
Ребята подняли 250М в конце прошлого года, в том числе с целью создания новых архитектур. До этого у них были работы по Liquid Time-constant Networks and continuous rnn. В общем я ожидал чего-то реально крутого и необычного.
А что по итогу получили?
По факту они взяли типичный llm attention слой. rmsnorm, swiglu activation, rope, qk norm. Почти все это было еще в llama v2.
Собрали таких 6 слоев: attn + mlp.
К этим слоям добавили 10 сверточных: conv + mlp.
Сверточные слои это double-gated causal conv layer (их LIV операторы). То есть это просто 1d свертки с gated операциями. На скрине реализация.
На этом всё. В любом случае все молодцы, но я ожидал большего.
С другой стороны. Работает же, работает же. Поэтому и ладно. Всем урок - не усложняйте ради усложнения. gated conv + transformer beat just transformer.
Но статьи нет, есть только benchmark с другими моделями. Учитывая как они учили свои модели через distillation, sft and dpo может быть все таки получилось побить конкурентов за счет тренировки и данных а не архитектуры.
Но глобально это работает так что можно юзать.
blogpost: https://www.liquid.ai/blog/liquid-foundation-models-v2-our-second-series-of-generative-ai-models
❤6🤔1
Forwarded from LIFT feed
Свежее от Precision Neuroscience: они вновь испытали на людях свои тонкопленочные сверхплотные микроэлектродные ЭКоГ массивы, каждый размером с почтовую марку и содержит 1024 электрода. Через узкую щель (900 мкм) в черепе пациентам заводили до четырех пленок, покрывая примерно 8 см² коры более чем 4 тыс. электродами. — По сравнению с предыдущим результатом добавили нейромодуляцию. На сегодня Precision имплантировали своё устройство уже >50 пациентам и получили разрешение FDA на имплантацию.
#tech | #readout | #modulation | #brain
#tech | #readout | #modulation | #brain
Nature
Minimally invasive implantation of scalable high-density cortical microelectrode arrays for multimodal neural decoding and stimulation
Nature Biomedical Engineering - A 1,024-channel microelectrode array is delivered to the brain cortex via a minimally invasive incision in the skull and dura, and allows recording, stimulation and...
⚡4❤3