Буквально недавно случилась страшная штука. Тупые, но быстрые, оказываются лучше, чем умные и медленные.
Маленькие нейросети («обрезанные» версии ChatGPT и подобных, работающие сильно быстрее) могут решать сложные задачи. Но только при двух условиях:
— Сотни попыток.
— Есть быстрая проверка, получилось или нет.
Например, писать какой-то код, который можно запустить и понять, сделал он, что нужно, или нет.
Вычислительно дешевле и проще много раз спросить тупую модель, получить от неё кучу разных ответов. И проверить. Чем делать то же самое в несколько точных, но очень ресурсоёмких попыток. Это похоже на выбор между тремя специалистами, которых готовили в университете по специальности 5 лет и толпой из 200 добровольцев, среди которых обязательно найдётся азиат, который делает всё лучше, чем ты.
Исследование вот. Маленькие модели с большим числом независимых попыток показали себя лучше, чем большие с одной попыткой. На всех без исключения тестах. Ну, поскольку ответ легче всего проверить в программировании и математике, тесты были на эти темы.
Если человечество когда-то решало похожую задачу, то можно очень дёшево запустить 10 тысяч попыток в маленькой модели и получить ответ быстрее и дешевле, чем в точных моделях, но в единицах попыток. Маленькие модели обгоняют по КПД большие — напомним, только когда есть простой критерий отсева неудачных попыток.
Так что если вас не устраивает результат, продолжайте долбать модель. Возможно, через некоторое время она найдёт что-то ещё в корпусе и предложит альтернативный вариант.
Была такая шутка про десять тысяч обезьян с печатными машинками, которые способны написать «Войну и мир». В общем, исследование примерно так и называется.
И, если что, именно похожую штуку делает модель ChatGPT o1 — то самое «думает перед тем, как ответить» — только это когда результат не проверяется, а выбирается внешней моделью (или голосованием малых — тут пруфов не будет, это на основе общения с разработчиками).
_______
Источник | #Fourier_series
@F_S_C_P
-------
Секретики!
-------
Маленькие нейросети («обрезанные» версии ChatGPT и подобных, работающие сильно быстрее) могут решать сложные задачи. Но только при двух условиях:
— Сотни попыток.
— Есть быстрая проверка, получилось или нет.
Например, писать какой-то код, который можно запустить и понять, сделал он, что нужно, или нет.
Вычислительно дешевле и проще много раз спросить тупую модель, получить от неё кучу разных ответов. И проверить. Чем делать то же самое в несколько точных, но очень ресурсоёмких попыток. Это похоже на выбор между тремя специалистами, которых готовили в университете по специальности 5 лет и толпой из 200 добровольцев, среди которых обязательно найдётся азиат, который делает всё лучше, чем ты.
Исследование вот. Маленькие модели с большим числом независимых попыток показали себя лучше, чем большие с одной попыткой. На всех без исключения тестах. Ну, поскольку ответ легче всего проверить в программировании и математике, тесты были на эти темы.
Если человечество когда-то решало похожую задачу, то можно очень дёшево запустить 10 тысяч попыток в маленькой модели и получить ответ быстрее и дешевле, чем в точных моделях, но в единицах попыток. Маленькие модели обгоняют по КПД большие — напомним, только когда есть простой критерий отсева неудачных попыток.
Так что если вас не устраивает результат, продолжайте долбать модель. Возможно, через некоторое время она найдёт что-то ещё в корпусе и предложит альтернативный вариант.
Была такая шутка про десять тысяч обезьян с печатными машинками, которые способны написать «Войну и мир». В общем, исследование примерно так и называется.
И, если что, именно похожую штуку делает модель ChatGPT o1 — то самое «думает перед тем, как ответить» — только это когда результат не проверяется, а выбирается внешней моделью (или голосованием малых — тут пруфов не будет, это на основе общения с разработчиками).
_______
Источник | #Fourier_series
@F_S_C_P
-------
Секретики!
-------
arXiv.org
Large Language Monkeys: Scaling Inference Compute with Repeated Sampling
Scaling the amount of compute used to train language models has dramatically improved their capabilities. However, when it comes to inference, we often limit the amount of compute to only one...
Буквально недавно случилась страшная штука. Тупые, но быстрые, оказываются лучше, чем умные и медленные.
Маленькие нейросети («обрезанные» версии ChatGPT и подобных, работающие сильно быстрее) могут решать сложные задачи. Но только при двух условиях:
— Сотни попыток.
— Есть быстрая проверка, получилось или нет.
Например, писать какой-то код, который можно запустить и понять, сделал он, что нужно, или нет.
Вычислительно дешевле и проще много раз спросить тупую модель, получить от неё кучу разных ответов. И проверить. Чем делать то же самое в несколько точных, но очень ресурсоёмких попыток. Это похоже на выбор между тремя специалистами, которых готовили в университете по специальности 5 лет и толпой из 200 добровольцев, среди которых обязательно найдётся азиат, который делает всё лучше, чем ты.
Исследование вот. Маленькие модели с большим числом независимых попыток показали себя лучше, чем большие с одной попыткой. На всех без исключения тестах. Ну, поскольку ответ легче всего проверить в программировании и математике, тесты были на эти темы.
Если человечество когда-то решало похожую задачу, то можно очень дёшево запустить 10 тысяч попыток в маленькой модели и получить ответ быстрее и дешевле, чем в точных моделях, но в единицах попыток. Маленькие модели обгоняют по КПД большие — напомним, только когда есть простой критерий отсева неудачных попыток.
Так что если вас не устраивает результат, продолжайте долбать модель. Возможно, через некоторое время она найдёт что-то ещё в корпусе и предложит альтернативный вариант.
Была такая шутка про десять тысяч обезьян с печатными машинками, которые способны написать «Войну и мир». В общем, исследование примерно так и называется.
И, если что, именно похожую штуку делает модель ChatGPT o1 — то самое «думает перед тем, как ответить» — только это когда результат не проверяется, а выбирается внешней моделью (или голосованием малых — тут пруфов не будет, это на основе общения с разработчиками).
_______
Источник | #Fourier_series
@F_S_C_P
-------
Секретики!
-------
Маленькие нейросети («обрезанные» версии ChatGPT и подобных, работающие сильно быстрее) могут решать сложные задачи. Но только при двух условиях:
— Сотни попыток.
— Есть быстрая проверка, получилось или нет.
Например, писать какой-то код, который можно запустить и понять, сделал он, что нужно, или нет.
Вычислительно дешевле и проще много раз спросить тупую модель, получить от неё кучу разных ответов. И проверить. Чем делать то же самое в несколько точных, но очень ресурсоёмких попыток. Это похоже на выбор между тремя специалистами, которых готовили в университете по специальности 5 лет и толпой из 200 добровольцев, среди которых обязательно найдётся азиат, который делает всё лучше, чем ты.
Исследование вот. Маленькие модели с большим числом независимых попыток показали себя лучше, чем большие с одной попыткой. На всех без исключения тестах. Ну, поскольку ответ легче всего проверить в программировании и математике, тесты были на эти темы.
Если человечество когда-то решало похожую задачу, то можно очень дёшево запустить 10 тысяч попыток в маленькой модели и получить ответ быстрее и дешевле, чем в точных моделях, но в единицах попыток. Маленькие модели обгоняют по КПД большие — напомним, только когда есть простой критерий отсева неудачных попыток.
Так что если вас не устраивает результат, продолжайте долбать модель. Возможно, через некоторое время она найдёт что-то ещё в корпусе и предложит альтернативный вариант.
Была такая шутка про десять тысяч обезьян с печатными машинками, которые способны написать «Войну и мир». В общем, исследование примерно так и называется.
И, если что, именно похожую штуку делает модель ChatGPT o1 — то самое «думает перед тем, как ответить» — только это когда результат не проверяется, а выбирается внешней моделью (или голосованием малых — тут пруфов не будет, это на основе общения с разработчиками).
_______
Источник | #Fourier_series
@F_S_C_P
-------
Секретики!
-------
arXiv.org
Large Language Monkeys: Scaling Inference Compute with Repeated Sampling
Scaling the amount of compute used to train language models has dramatically improved their capabilities. However, when it comes to inference, we often limit the amount of compute to only one...
Чуваки берут и покрывают самолёты акульей кожей. Искусственной.
Акула — очень хитрая рыба, и её кожа обладает двумя полезными свойствами:
1) Не даёт рукоятке ножа скользить в потной руке.
2) Даёт акуле скользить в океане легче, чем без такой кожи.
В общем, из всего известного в биологии, оно самое подходящее для того, чтобы покрывать самолёты, чтобы им лучше леталось. Проблема в том, что идее этой лет 40, а самолёты покрывать стали только сейчас.
Аккурат больше сорока лет назад немецкий биолог Вольф-Эрнст Райф обнаружил небольшие продольные канавки на коже древних акул. Почему на ископаемых — потому что современные акулы обычно не подпускают близко немецких учёных с микроскопами, если у них есть выбор. Вольф-Эрнс вместе со своим другом Дитрихом Вольфгангом Бехертом замучали ещё акулу (на этот раз поновее), что очень заинтересовала Дитриха. И Вольфганга тоже. Потому что он оба был из аэрокосмического центра.
В общем, они запихали макет акулы (возможно, сделанный из самой акулы) в аэротрубу и измерили сопротивление с кожей и без. Немцы, фигли. Получилась разница 8%.
Казалось бы, наносим на самолёт, и минус 8% топлива, да? А вот хрен там стоял. Во-первых, надо правильно расцарапывать самолёт — 50 микрон в высоту, до 1 микрона в ширину. Сдует и выровняет на первом же взлёте, если не будет чего-то очень жёсткого в основе. Если это жёсткое ещё и разрушается от УФ (как большая часть пластиков), то тоже привет всем микроструктурам. Если оно ещё и не выдерживает перепад в 100 градусов (от -60 на высоте до Африки и Астрахани), то снова привет.
Ещё акула плавает примерно в одном эшелоне, а самолёты меняют свойства среды от совсем донных до почти поверхностных. Там упёрлись в моделирование: самолёты, к сожалению, сильно кривые, и считали они там правильные канавки буквально годами. Потом начали клеить, и это было плохой идеей. Идеей лучше оказалось сначала наносить покрытие УСЛОВНО типа латекса, а потом по нему уже царапать. Эксперименты кончились полной экономической нецелесообразностью.
Потом оказалось, что какие-то сумасшедшие гонщики уже наносят подобное покрытие на гоночные самолёты и читерят. Оказалось, что там две компании: одна написала специфический софт для расчёта только акулей кожи только на гоночных самолётах (и, вероятно, только на зелёных), а вторая научилась делать плёнку. Через задницу, не такую эффективную, как в теории, но научились. И оно летало. И летало быстрее, чем без плёнки.
Гонщиков подписали оклеивать транспортники. Через пару лет оклеили самолёт с площадь Ленина. Но не прямо интегралом по поверхности, а частично. Причём вручную. И эта штука заработала!
Если вы думаете, что на этом всё, то нет. Пришли эксплуатационщики и сказали, что самолёт обливают противообледенительной жидкостью, он леденеет, стоит на жарких стоянках, его чистят и моют, эта штука не должна отваливаться в рожу летящему сзади самолёту, не должна гореть быстрее тысячи баксов в секунду (как и весь остальной самолёт) и вообще не должна. Несите документы по сертификации, уррроды.
Поджигать прямо в аэротрубе макеты акул нельзя, поэтому надо летать. Поэтому "это просто пластиковая плёнка" зависла в испытаниях ещё на несколько лет. Летали куски 15х15 сантиметров на транспортниках. В общей сложности куски набрали 15 тысяч часов полёта. Для сравнения, если у вас в какой-то игре наиграно 15 тысяч часов, поздравляем, вы недополучили 7 годовых зарплат.
В итоге плёнка нанесена на 16 эксплуатируемых больших самолётов, наносится сейчас на 4 транспортника и 9 пассажирских, и 3 сентября Боинг-777F японского перевозчика полетел в этой шкуре из Чикаги в Токио. Потребление топлива снижается на 1-2%, а не на 8%, как у акулы, но всё равно это дико круто.
Детали есть вот тут и тут. А вот видео про разрушителей мифов и машину с кожей акулы.
_______
Источник | #Fourier_series
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Акула — очень хитрая рыба, и её кожа обладает двумя полезными свойствами:
1) Не даёт рукоятке ножа скользить в потной руке.
2) Даёт акуле скользить в океане легче, чем без такой кожи.
В общем, из всего известного в биологии, оно самое подходящее для того, чтобы покрывать самолёты, чтобы им лучше леталось. Проблема в том, что идее этой лет 40, а самолёты покрывать стали только сейчас.
Аккурат больше сорока лет назад немецкий биолог Вольф-Эрнст Райф обнаружил небольшие продольные канавки на коже древних акул. Почему на ископаемых — потому что современные акулы обычно не подпускают близко немецких учёных с микроскопами, если у них есть выбор. Вольф-Эрнс вместе со своим другом Дитрихом Вольфгангом Бехертом замучали ещё акулу (на этот раз поновее), что очень заинтересовала Дитриха. И Вольфганга тоже. Потому что он оба был из аэрокосмического центра.
В общем, они запихали макет акулы (возможно, сделанный из самой акулы) в аэротрубу и измерили сопротивление с кожей и без. Немцы, фигли. Получилась разница 8%.
Казалось бы, наносим на самолёт, и минус 8% топлива, да? А вот хрен там стоял. Во-первых, надо правильно расцарапывать самолёт — 50 микрон в высоту, до 1 микрона в ширину. Сдует и выровняет на первом же взлёте, если не будет чего-то очень жёсткого в основе. Если это жёсткое ещё и разрушается от УФ (как большая часть пластиков), то тоже привет всем микроструктурам. Если оно ещё и не выдерживает перепад в 100 градусов (от -60 на высоте до Африки и Астрахани), то снова привет.
Ещё акула плавает примерно в одном эшелоне, а самолёты меняют свойства среды от совсем донных до почти поверхностных. Там упёрлись в моделирование: самолёты, к сожалению, сильно кривые, и считали они там правильные канавки буквально годами. Потом начали клеить, и это было плохой идеей. Идеей лучше оказалось сначала наносить покрытие УСЛОВНО типа латекса, а потом по нему уже царапать. Эксперименты кончились полной экономической нецелесообразностью.
Потом оказалось, что какие-то сумасшедшие гонщики уже наносят подобное покрытие на гоночные самолёты и читерят. Оказалось, что там две компании: одна написала специфический софт для расчёта только акулей кожи только на гоночных самолётах (и, вероятно, только на зелёных), а вторая научилась делать плёнку. Через задницу, не такую эффективную, как в теории, но научились. И оно летало. И летало быстрее, чем без плёнки.
Гонщиков подписали оклеивать транспортники. Через пару лет оклеили самолёт с площадь Ленина. Но не прямо интегралом по поверхности, а частично. Причём вручную. И эта штука заработала!
Если вы думаете, что на этом всё, то нет. Пришли эксплуатационщики и сказали, что самолёт обливают противообледенительной жидкостью, он леденеет, стоит на жарких стоянках, его чистят и моют, эта штука не должна отваливаться в рожу летящему сзади самолёту, не должна гореть быстрее тысячи баксов в секунду (как и весь остальной самолёт) и вообще не должна. Несите документы по сертификации, уррроды.
Поджигать прямо в аэротрубе макеты акул нельзя, поэтому надо летать. Поэтому "это просто пластиковая плёнка" зависла в испытаниях ещё на несколько лет. Летали куски 15х15 сантиметров на транспортниках. В общей сложности куски набрали 15 тысяч часов полёта. Для сравнения, если у вас в какой-то игре наиграно 15 тысяч часов, поздравляем, вы недополучили 7 годовых зарплат.
В итоге плёнка нанесена на 16 эксплуатируемых больших самолётов, наносится сейчас на 4 транспортника и 9 пассажирских, и 3 сентября Боинг-777F японского перевозчика полетел в этой шкуре из Чикаги в Токио. Потребление топлива снижается на 1-2%, а не на 8%, как у акулы, но всё равно это дико круто.
Детали есть вот тут и тут. А вот видео про разрушителей мифов и машину с кожей акулы.
_______
Источник | #Fourier_series
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Nippon TV NEWS 24 JAPAN
ANA flies first freighter with sharkskin-inspired coating
All Nippon Airways launched Japan's first freighter with sharkskin-inspired coating on September 2. The surface film th...