Часть описанного выше улучшения — это улучшение самого процесса обучения. Во-первых, я изменил метрику с MAE (L1-метрика) на MSE (L2-метрика). Еще пробовал экспериментировать с L4-метрикой (чтобы больше штрафовать оценку за сильные ошибки и мало штрафовать за много мелких ошибок), но из этого ничего хорошего не получилось
Во-вторых, сделал нормализацию датасета и делю все признаки на
Обновленный ноутбук можно найти по ссылке
Во-вторых, сделал нормализацию датасета и делю все признаки на
(max - min), где min и max — минимальное и максимальное значения признака. Такой вот самописный MinMaxScaler :)Обновленный ноутбук можно найти по ссылке
Пора рассказать, что нового появилось. Во-первых, я заметно ускорил утилиту make_dataset, которая по заданным партиям генерирует датасет для обучения. Раньше она писала выходной CSV-файл со скоростью примерно 20-30 МБ/с, что довольно медленно (датасет для нескольких миллионов позиций занимает пару гигабайт). Сейчас скорость достигает 200-300 МБ/с при записи в
Как я этого добился? Я решил попрофилировать
Я переписал запись CSV таким образом: сделал у себя буферизацию и начал писать в свой буфер, а когда мой буфер заканчивается, то тогда я уже пишу в поток с помощью ostream::write(). Числа пишутся в буфер прямо на месте, при помощи std::to_chars(). Код получился таким. Буферизация дала ускорение в целых 4 раза!
Остальная часть ускорения вышла за счет многопоточности. Теперь
Вот коммит, в котором я все это сделал
/dev/null, т.е. ускорение получилось примерно в 10 разКак я этого добился? Я решил попрофилировать
make_dataset с помощью callgrind (часть valgrind). Посмотрел результаты и понял, что примерно 80% времени занимал вывод в std::cout. При этом, у меня уже тогда стоял std::ios_base::sync_with_stdio(false);, т.е. дело было не в синхронизации с stdio, а в том, что запись в потоки в C++ — штука не очень быстраяЯ переписал запись CSV таким образом: сделал у себя буферизацию и начал писать в свой буфер, а когда мой буфер заканчивается, то тогда я уже пишу в поток с помощью ostream::write(). Числа пишутся в буфер прямо на месте, при помощи std::to_chars(). Код получился таким. Буферизация дала ускорение в целых 4 раза!
Остальная часть ускорения вышла за счет многопоточности. Теперь
make_dataset умеет обрабатывать позиции и писать куски CSV независимо в нескольких потоках, а затем уже выводить в файл. Устроено это так: в каждый поток прилетает набор позиций, по ним строится кусок CSV, который отправляется в поток вывода (поток в смысле thread, а не в смысле stream). А поток вывода уже выводит построенные куски CSV в файлВот коммит, в котором я все это сделал
Еще я провел матч на 100'000 партий:
...Точность потрясающая (±2 Эло), но работает долго и при маленьком контроле времени, так что всегда так запускать, увы, не получится
99998/100000 games (6.15 hours/6.15 hours), score = 50241.0:49757.0, confidence = ?
99999/100000 games (6.15 hours/6.15 hours), score = 50241.0:49758.0, confidence = ?
100000/100000 games (6.15 hours/6.15 hours), score = 50241.5:49758.5, confidence = ?
Wins: 35515, Loses: 35032, Draws: 29453
Score: 50241.5:49758.5
Confidence interval:
p = 0.90: Unclear
p = 0.95: Unclear
p = 0.97: Unclear
p = 0.99: Unclear
Other stats:
LOS = 0.97
Elo difference = -0.48/1.68/3.83 (low/avg/high, at p = 0.95)
Недавно читал README движка Fruit. Там нашел такие строчки:
Some people find that Fruit is surprisingly "strong" given the above
(dull) description. The same persons are probably going to scrutinise
the source code looking for "magic tricks"; I wish them good luck. If
they find any, those are likely to be "bugs" that I have overlooked or
"features" I have forgotten to remove (please let me know). The main
search function is full_search() in search_full.cpp
I suggest instead that one ponders on what other "average amateur"
engines might be doing wrong ... Maybe trying too many heuristics
(they might be conflicting or choosing weights for them is too
difficult) or code that is too complex, maybe features that look
important but are actually performing no useful function ... Sorry I
do not know, and I don't think we will find the answer in Fruit ...
Я очень надеюсь, что аккуратная проверка каждой эвристики на игре движка с самим собой меня спасет от добавления плохих эвристик, и в итоге у меня получится быстрый и сильный движок :)
Some people find that Fruit is surprisingly "strong" given the above
(dull) description. The same persons are probably going to scrutinise
the source code looking for "magic tricks"; I wish them good luck. If
they find any, those are likely to be "bugs" that I have overlooked or
"features" I have forgotten to remove (please let me know). The main
search function is full_search() in search_full.cpp
I suggest instead that one ponders on what other "average amateur"
engines might be doing wrong ... Maybe trying too many heuristics
(they might be conflicting or choosing weights for them is too
difficult) or code that is too complex, maybe features that look
important but are actually performing no useful function ... Sorry I
do not know, and I don't think we will find the answer in Fruit ...
Я очень надеюсь, что аккуратная проверка каждой эвристики на игре движка с самим собой меня спасет от добавления плохих эвристик, и в итоге у меня получится быстрый и сильный движок :)
Во-вторых, я добавил оценку короля. Проверял следующее:
1) пешечный щит короля. Смотрим, какие есть пешки перед рокированным королем, и штрафуем, если там их не хватает. Дает до 20 Эло
2) близость вражеских фигур к королю. Раньше у меня такая эвристика была написана для ферзя, теперь я ее решил добавить для всех остальных фигур. Попытался обучить веса и обнаружил, что для других фигур они оказались близки к нулю, поэтому оставил близость только для ферзя и ладьи. Но попутно я обнаружил, что проверка на близость работала медленно (ссылка на код). После того, как я развернул цикл руками, я получил неплохое улучшение (около 40-50 Эло). Довольно неожиданно :)
3) прорыв пешечного щита вражескими пешками (он же pawn storm). Эта эвристика мне ничего не дала, а после обучения все только ухудшилось. Поэтому писать я ее не стал
В целом, за последнее время было больше неудачных экспериментов, чем удачных. Надеюсь, дальше улучшения пойдут лучше :)
1) пешечный щит короля. Смотрим, какие есть пешки перед рокированным королем, и штрафуем, если там их не хватает. Дает до 20 Эло
2) близость вражеских фигур к королю. Раньше у меня такая эвристика была написана для ферзя, теперь я ее решил добавить для всех остальных фигур. Попытался обучить веса и обнаружил, что для других фигур они оказались близки к нулю, поэтому оставил близость только для ферзя и ладьи. Но попутно я обнаружил, что проверка на близость работала медленно (ссылка на код). После того, как я развернул цикл руками, я получил неплохое улучшение (около 40-50 Эло). Довольно неожиданно :)
3) прорыв пешечного щита вражескими пешками (он же pawn storm). Эта эвристика мне ничего не дала, а после обучения все только ухудшилось. Поэтому писать я ее не стал
В целом, за последнее время было больше неудачных экспериментов, чем удачных. Надеюсь, дальше улучшения пойдут лучше :)
И все-таки я добавил pawn storm в оценку позиции (см. пункт 3 из прошлого поста) и даже получил на нем ~20 Эло улучшения. Как я этого достиг, хотя раньше мне улучшить не удавалось? Все просто: я перегенерировал датасет. Если раньше там были партии старой версии движка с собой, то в новом датасете играет уже новая версия (тоже сама с собой). Вывод: для обучения лучше всего использовать партии того движка, в котором мы как собираемся подгонять веса. А еще лучше — актуальную его версию
Я порефакторил оценку позиции. Поэтому расскажу про то, как я тестировал код после рефакторинга и убедился, что ничего не поломалось
Подход довольно простой. У меня есть make_dataset, который умеет генерить коэффициенты для обучения. Он это делает, как раз запуская оценку позиции. Только вместо одного числа оценка позиции здесь возвращает вектор коэффициентов (это достигается с помощью шаблонной магии). Если я допустил баг, пока рефакторил, то это означает, что какие-то коэффициенты могли поменяться
Поэтому можно применить следующую простую идею: взять побольше позиций, запустить
Еще
Подход довольно простой. У меня есть make_dataset, который умеет генерить коэффициенты для обучения. Он это делает, как раз запуская оценку позиции. Только вместо одного числа оценка позиции здесь возвращает вектор коэффициентов (это достигается с помощью шаблонной магии). Если я допустил баг, пока рефакторил, то это означает, что какие-то коэффициенты могли поменяться
Поэтому можно применить следующую простую идею: взять побольше позиций, запустить
make_dataset на версии до и после рефакторинга, а затем убедиться, что хэш-суммы результата совпадают. К счастью, имеющиеся у меня датасеты насчитывают по несколько миллионов позиций, поэтому шанс ошибки очень мал. Такое вот baseline-тестирование :)Еще
make_dataset удобно использовать просто для дебага: можно вбить в него позицию (или еще лучше — целую партию) и посмотреть, какие признаки использовала оценка позиции. А потом проверить глазами, совпадает ли это с тем, что ожидалосьРаньше мой движок не мог нормально играть на короткий контроль времени в BattleField. Речь идет не про запуски с фиксированным временем обдумывания — в этом режиме уже давно проводятся все без исключения проверки, и можно считать, что здесь все нормально. Речь идет о контроле времени вида «1 минута на партию» или «1 минута на партию плюс одна секунда на ход». Или «1 минута на каждые 40 ходов»
Оказалось, что в таком случае движок часто проигрывает из-за того, что у него кончается время. Я пошел разбираться и выяснил следующее
Во-первых, Evaluator (класс, который отвечает за оценку позиции) хранит в себе кэш размером около 1 МБ. На выделение и очистку такого объема памяти явно потребуется время около 1 мс. Поэтому я решил кэшировать Evaluator'ы между запусками. Еще я сделал так, что замеры времени стали лучше отражать реальность, подвинув время старта ближе к реальному запуску анализа. Вот коммит, в котором это все произошло
Это не решило проблему полностью — движок все еще мог думать дольше, чем его попросили. Например, я его просил думать 2 мс — а он тратил 3 мс. Чтобы рассказать, как я решил эту проблему, немного поясню, как движок понимает, что пора заканчивать. Все просто: он время от времени зовет функцию mustStop(), которая замеряет время и проверяет, действительно ли пора остановиться. А чтобы не тратить много времени на замеры, мы делаем их не каждый запуск этой функции, а каждый 1024-й. Раньше там вместо 1024 стояло 4096, и было хуже: поскольку движок анализирует около 4 млн позиций в секунду, то раз в 4096 запусков означало проверки примерно раз в 1мс. Замена 4096 на 1024 улучшила ситуацию, но, к сожалению, полностью проблему не решила
Поэтому я переписал код, который решает, сколько времени должен думать движок (коммит). Здесь оказалось, что проблема не столько в моем движке, сколько в BattleField'е: из-за внутренних задержек в самом BattleField'е вместо 1мс на ход, на которые рассчитывал движок, могло получиться так, что реально прошло около 3мс. В итоге я вставил в код подпорки, чтобы движок не тратил время впритык и для учета подобных задержек оставлял немного времени. Таким образом, я исправил проблему, и просроченного времени больше не наблюдалось :)
Оказалось, что в таком случае движок часто проигрывает из-за того, что у него кончается время. Я пошел разбираться и выяснил следующее
Во-первых, Evaluator (класс, который отвечает за оценку позиции) хранит в себе кэш размером около 1 МБ. На выделение и очистку такого объема памяти явно потребуется время около 1 мс. Поэтому я решил кэшировать Evaluator'ы между запусками. Еще я сделал так, что замеры времени стали лучше отражать реальность, подвинув время старта ближе к реальному запуску анализа. Вот коммит, в котором это все произошло
Это не решило проблему полностью — движок все еще мог думать дольше, чем его попросили. Например, я его просил думать 2 мс — а он тратил 3 мс. Чтобы рассказать, как я решил эту проблему, немного поясню, как движок понимает, что пора заканчивать. Все просто: он время от времени зовет функцию mustStop(), которая замеряет время и проверяет, действительно ли пора остановиться. А чтобы не тратить много времени на замеры, мы делаем их не каждый запуск этой функции, а каждый 1024-й. Раньше там вместо 1024 стояло 4096, и было хуже: поскольку движок анализирует около 4 млн позиций в секунду, то раз в 4096 запусков означало проверки примерно раз в 1мс. Замена 4096 на 1024 улучшила ситуацию, но, к сожалению, полностью проблему не решила
Поэтому я переписал код, который решает, сколько времени должен думать движок (коммит). Здесь оказалось, что проблема не столько в моем движке, сколько в BattleField'е: из-за внутренних задержек в самом BattleField'е вместо 1мс на ход, на которые рассчитывал движок, могло получиться так, что реально прошло около 3мс. В итоге я вставил в код подпорки, чтобы движок не тратил время впритык и для учета подобных задержек оставлял немного времени. Таким образом, я исправил проблему, и просроченного времени больше не наблюдалось :)
Оказывается, есть еще большой простор для улучшений :) Например, я смог улучшить логику вытеснения элементов из хэш-таблицы (коммит). Казалось бы, изменение довольно скромное — а дает примерно 15 Эло — не сильно меньше, чем пешки, зато значительно проще в написании :)
Вот вывод BattleField'а:
Вот вывод BattleField'а:
Wins: 1940, Loses: 1723, Draws: 1337Что я понял из этого? Во-первых, очень важно вовремя удалять из хэш-таблицы старые записи. Если не удалять их вообще или удалять неэффективно, то время значительно проседает, и можно потерять до 100 Эло. Во-вторых, не стоит класть в хэш-таблицу позиции без известного лучшего хода. Оказывается, главная роль хэш-таблицы не в том, что она может вернуть точный результат, а в том, что она хранит хороший ход в позициях, и сильно помогает таким образом сортировке ходов. А от сортировки ходов уже напрямую зависит скорость альфа-бета поиска
Score: 2608.5:2391.5
Confidence interval:
p = 0.90: First wins
p = 0.95: First wins
p = 0.97: First wins
p = 0.99: First wins
Other stats:
LOS = 1.00
Elo difference = 6.85/15.09/23.35 (low/avg/high, at p = 0.95)
SoFCheck уже играет довольно неплохо, поэтому я в скором времени планирую делать первую бета-версию и выкладывать бинарники. В связи с этим расскажу, как я научился в статическую линковку движка
Сначала коротко отвечу на вопрос «зачем это нужно». Ответ: я хочу убедиться, что те бинарники, которые я выложу на GitHub при релизе заработают на любом компьютере, а для этого они не должны иметь внешних зависимостей от динамических библиотек
Итак, для статической линковки нам, во-первых, понадобится убедиться, что все зависимые библиотеки линкуются статически. Во-вторых, нужно передать флаги компилятору:
- в случае GCC/Clang нам поможет
- в случае MSVC мы можем собрать со статическим рантаймом, используя флаг
Поддержать статическую линковку с CMake оказалось не очень просто. Во-первых, я сделал серию
костылей и подпорок, чтобы убедиться, что мы не пытаемся линковать зависимости как динамические библиотеки. Но это самая простая проблема
Во-вторых, сборка под GCC с
Далее возникла проблема с MSVC: надо во флагах сборки заменить везде
Наконец, статическая сборка под macOS оказалась очень затруднительна, поэтому на этой платформе я не выставляю
Сначала коротко отвечу на вопрос «зачем это нужно». Ответ: я хочу убедиться, что те бинарники, которые я выложу на GitHub при релизе заработают на любом компьютере, а для этого они не должны иметь внешних зависимостей от динамических библиотек
Итак, для статической линковки нам, во-первых, понадобится убедиться, что все зависимые библиотеки линкуются статически. Во-вторых, нужно передать флаги компилятору:
- в случае GCC/Clang нам поможет
-static (но есть еще нюансы, о которых ниже)- в случае MSVC мы можем собрать со статическим рантаймом, используя флаг
/MT (вместо /MD, если бы мы хотели собирать с динамическим рантаймом, т.е. зависеть от установленного msvcrt в качестве DLL)Поддержать статическую линковку с CMake оказалось не очень просто. Во-первых, я сделал серию
костылей и подпорок, чтобы убедиться, что мы не пытаемся линковать зависимости как динамические библиотеки. Но это самая простая проблема
Во-вторых, сборка под GCC с
-static проходила успешно, но движок начинал падать. Это проблема pthreads и статической линковки, и ее решение объяняется здесь. Если коротко — при компиляции создаются слабые ссылки на символы из pthreads, поэтому pthreads не линкуется в итоговый бинарник, и вместо адресов функций в итоге оказываются нули, откуда и получаем падение. В качестве фикса можно дописать флаги -Wl,--whole-archive -lrt -lpthread -Wl,--no-whole-archive. Интересно, что если не дописать -lrt, то код упадет в самом начале, на вызове pthread_self(). Но pthread_self() объявлен не librt.a, а в libc.a! А его добавление лишь заставляет pthread_self() появиться в итоговом бинарнике, поскольку librt.a содержит ссылку на этот символДалее возникла проблема с MSVC: надо во флагах сборки заменить везде
/MD на /MT. В самом SoFCheck'е это оказалось сделать нетрудно. Труднее оказалось проделать то же самое во всех зависимостях, поскольку я не могу просто так взять в них CMakeLists.txt и поменять там флаги. Пришлось написать файл перегрузок, и для каждой зависимости дописывать что-то вроде -DCMAKE_USER_MAKE_RULES_OVERRIDE=StaticLink.cmake
Еще проблема: CMake хочет искать динамические библиотеки, а не только статические. В частности, при сборке Google Benchmark он захотел зависимость от динамической библиотеки librt.so, что вызывало ошибку линкера. Пришлось в файле перегрузок запретить ему искать динамические библиотекиНаконец, статическая сборка под macOS оказалась очень затруднительна, поэтому на этой платформе я не выставляю
-static
Итого: статическая сборка с CMake — это ад, и требуется много работы руками, чтобы ее завестиЕще я добавил в движок эвристику под названием Razoring, и получил ~40-60 Эло на этом. Потом еще получил ~20 Эло на том, что поменял коэффициенты для Futility Pruning
Эти две эвристики довольно похожи. В альфа-бета поиске нам важно найти либо точную оценку позиции, если она лежит между значениями
Эти две эвристики довольно похожи. В альфа-бета поиске нам важно найти либо точную оценку позиции, если она лежит между значениями
alpha и beta, либо сказать, что оценка меньше alpha, либо сказать, что она больше beta (в последних двух случаях нас не интересует точное значение). Так вот, в Razoring мы говорим, что если у нас сейчас все плохо (т.е. статическая оценка меньше alpha - margin), то мы считаем, что не можем ничего улучшить, и возвращаем alpha. Аналогично во Futility Pruning, только там мы проверяем beta + margin и возвращаем beta
Возникает закономерная идея, как можно подобрать коэффициенты для этих эвристик. Идея простая: не отсекаться на самом деле, а запускать вместо этого анализ дальше, чтобы проверить, вернул ли бы точный поиск значение, меньшее alpha в этой позиции. Затем записываем результат такой проверки вместе со значением alpha - value (здесь value — значение статической оценки, т.е. мы таким образом записываем минимальное значение margin, которое привело бы к отсечке). Далее мы обучаемся на записанных значениях, чтобы найти приемлемое значение margin. Его следует подбирать так, чтобы отсечение срабатывало достаточно часто, но при этом число ложных срабатываний было бы минимально. Выглядит как обучение классификатора, который выдает 0 или 1 в зависимости от правила value <= alpha - margin. Я пока эту идею не пробовал, но, возможно, когда-нибудь дойду до нее👍1
Сделал первый релиз движка:
https://github.com/alex65536/sofcheck/releases/tag/v0.9-beta
https://github.com/alex65536/sofcheck/releases/tag/v0.9-beta
👍1
Потестировал SoFCheck против других движков в режиме «200 партий, контроль времени — 5 минут на 40 ходов». Результаты оказались такие:
Против Ifrit (2413 Эло по версии CCRL):
Против Ifrit (2413 Эло по версии CCRL):
Wins: 93, Loses: 44, Draws: 63Против GreKo 2015 (2608 Эло по версии CCRL):
Score: 124.5:75.5
Confidence interval:
p = 0.90: First wins
p = 0.95: First wins
p = 0.97: First wins
p = 0.99: First wins
Other stats:
LOS = 1.00
Elo difference = 47.35/86.89/128.78 (low/avg/high, at p = 0.95)
Wins: 50, Loses: 91, Draws: 59Отсюда получаем, что рейтинг SoFCheck'а на CCRL должен быть примерно равен 2500 Эло. Каков он на самом деле — мы узнаем только тогда, когда его протестируют на CCRL и добавят в рейтинги, а это может произойти не очень скоро
Score: 79.5:120.5
Confidence interval:
p = 0.90: Second wins
p = 0.95: Second wins
p = 0.97: Second wins
p = 0.99: Second wins
Other stats:
LOS = 0.00
Elo difference = -114.39/-72.25/-32.11 (low/avg/high, at p = 0.95)
Не так давно я отправил SoFCheck на CCRL — это сайт, посвященный тестированию различных шахматных движков. Пора рассказать в связи с этим несколько новостей
Во-первых, SoFCheck получил рейтинг в блице (контроль времени — 2 минуты на 40 ходов). По результатам 411 партий рейтинг составил 2437 Эло (таблица). Получилось близко к тому, что я ожидал :)
Во-вторых, сегодня на CCRL начался турнир, в котором участвует SoFCheck. Это первый турнир с участием моего движка. Вот ссылка на список партий, которые будут сыграны в турнире. Есть еще ссылка на трансляцию, куда можно заходить и смотреть :)
Во-первых, SoFCheck получил рейтинг в блице (контроль времени — 2 минуты на 40 ходов). По результатам 411 партий рейтинг составил 2437 Эло (таблица). Получилось близко к тому, что я ожидал :)
Во-вторых, сегодня на CCRL начался турнир, в котором участвует SoFCheck. Это первый турнир с участием моего движка. Вот ссылка на список партий, которые будут сыграны в турнире. Есть еще ссылка на трансляцию, куда можно заходить и смотреть :)
👍2
Недавно завершился первый турнир с участием SoFCheck'а, и мой движок выиграл в нем :)
Турнир проходил между десятью движками, каждый сыграл с каждым по четыре партии: две белыми и две черными. Итого 36 партий для каждого движка. За победу присуждалось 1 очко, за ничью — 0.5, за поражение — 0
Результаты такие:
Турнир проходил между десятью движками, каждый сыграл с каждым по четыре партии: две белыми и две черными. Итого 36 партий для каждого движка. За победу присуждалось 1 очко, за ничью — 0.5, за поражение — 0
Результаты такие:
26.0 - SoFCheck 0.9-beta 64-bit
22.5 - Isa 2.0.83 64-bit
20.0 - EveAnn 1.72
20.0 - Prophet 4.1 64-bit
18.0 - FireFly 2.7.2 64-bit
17.5 - Barbarossa 0.6.0 64-bit
16.5 - Tantabus 1.0.2 64-bit
14.5 - Admete 1.3.1 64-bit
14.0 - Matilde 2008 64-bit
11.0 - Absolute Zero 3.3.2.0 64-bitЕще хотел показать, как я красиво порефакторил модуль
search. Вся его публичная часть теперь состоит из одного заголовочного файла search/search.h (ссылка), в котором находится одна-единственная функция:std::unique_ptr<SoFBotApi::Client> makeEngine();
А все детали реализации скрыты за интерфейсом SoFBotApi::Client, который просто содержит команды UCI в виде функцийВыпустил следующий релиз, поправил пару багов, проделал пару рефакторингов:
https://github.com/alex65536/sofcheck/releases/tag/v0.9.1-beta
В новом релизе только исправления проблем, без улучшения силы игры
https://github.com/alex65536/sofcheck/releases/tag/v0.9.1-beta
В новом релизе только исправления проблем, без улучшения силы игры
Пока сам SoFCheck не развивается, но вокруг него происходят интересные вещи
Я планирую переписать battlefield — это программа для запуска игр движков друг с другом и сбора всяких разных статистик, чтобы определить, какая из них сильнее. Текущая версия написана на Pascal с не очень быстрой реализацией правил, а ожидание ответа от движка в ней выглядит как
Я решил, что программа на замену battlefield будет написана на Rust. Первым делом я поискал крейты (так называются пакеты в Rust), которые реализуют правила шахмат и основную шахматную функциональность. Выбор пал на два крейта: chess и shakmaty. Оба крейта в целом работают, а
А ещев существующих крейтах обнаружился фатальный недостаток мне захотелось попрактиковаться в Rust, и поэтому я решил написать свой крейт на основе правил SoFCheck и назвал его owlchess. Он в целом довольно стабилен и во многом покрыт юнит-тестами, но я хочу его еще дотестировать на большом числе досок и убедиться, что все точно работает корректно
Я планирую переписать battlefield — это программа для запуска игр движков друг с другом и сбора всяких разных статистик, чтобы определить, какая из них сильнее. Текущая версия написана на Pascal с не очень быстрой реализацией правил, а ожидание ответа от движка в ней выглядит как
Sleep(1); до тех пор, пока на пайп не поступит что-то полезное. Не очень хорошоЯ решил, что программа на замену battlefield будет написана на Rust. Первым делом я поискал крейты (так называются пакеты в Rust), которые реализуют правила шахмат и основную шахматную функциональность. Выбор пал на два крейта: chess и shakmaty. Оба крейта в целом работают, а
shakmaty даже реализует много разных вариантов шахмат. Хотя, chess мне не подходит тем, что он не умеет выводить ход в виде SAN, что требуется для экспорта в PGN. Но оба крейта не очень хорошо позволяют понять причину конца игры: т.е. я могу из крейта просто получить, что на доске стоит ничья, но не могу понять, была ли это ничья из-за правила 50 ходов или из-за пата. А еще shakmaty хранит только саму доску без истории ходов, и поэтому проверку на троекратные повторения пришлось бы писать в отдельной обертке над этим крейтомА еще
Как я уже упоминал выше, в основе
- любая доска всегда валидна (т.е. на ней вражеский король не под боем, нет пешек на восьмой линии и т. д.)
- любые ходы проверяются перед их применением, чтобы доска не перестала быть валидной. Можно применить ход и без проверки, но эта возможность является
Т.е. API крейта получилось вполне в духе Rust, где сделать невалидное действие просто не получится. А если очень хочется пренебречь проверками, то придется использовать
Что насчет производительности? Если использовать
owlchess лежит реализация правил из SoFCheck. Есть, конечно, и отличия, в первую очередь в плане безопасности. В SoFCheck реализация правил полагается, как принято в мире C++, на прямые руки программиста: ты должен сам убедиться, что сделал все правильно, иначе словишь UB. В Rust идеология радикально иная: необходимо писать API так, чтобы их нельзя было использовать неправильно. Поэтому в owlchess довольно много интересных оберток: примитивы cell_t, coord_t и bitboard_t из SoFCheck превратились в структуры Cell, Coord и Bitboard, которые не дадут присвоить в них невалидное значение. Еще добавились дополнительные гарантии:- любая доска всегда валидна (т.е. на ней вражеский король не под боем, нет пешек на восьмой линии и т. д.)
- любые ходы проверяются перед их применением, чтобы доска не перестала быть валидной. Можно применить ход и без проверки, но эта возможность является
unsafe
- получить некорректную доску или применить некорректную последовательность ходов без unsafe никак не получитсяТ.е. API крейта получилось вполне в духе Rust, где сделать невалидное действие просто не получится. А если очень хочется пренебречь проверками, то придется использовать
unsafe
Еще в owlchess есть типы, очень полезные для переписывания battlefield. Например, MoveChain, который может держать список всех ходов партии, экспортировать его в строку (как в виде ходов для передачи движку по UCI, так и в виде PGN) и проверять на ничью путем повторения ходов. Или Outcome, который исчерпывающе описывает, как закончилась партияЧто насчет производительности? Если использовать
unsafe в owlchess, то он по скорости примерно равен реализации правил в SoFCheck (а применение хода почему-то получилось даже чуть быстрее). Если использовать safe, то все чуть хуже: валидация хода перед его применением замедляет все в 1.5-2 раза. Но в остальном можно смело утверждать, что Rust не уступает по производительности C++