Tapot Grokih Kuzdr
90 subscribers
78 photos
13 videos
142 links
Геймдизайн и стартапы - всякое полезное через боль и опыт
Download Telegram
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Кому Stable Diffusion для M1 маков?
Встречайте Diffusion Bee — простой способ запустить Stable Diffusion локально на вашем M1 Mac. Поставляется с установщиком в один клик. Никаких dependencies или технических знаний не требуется. Ссылка:
https://github.com/divamgupta/diffusionbee-stable-diffusion-ui

Кто заведет, пишите, насколько шустро работает.
Diffusion Bee Довольно шустро работает, с 16 Gb оперативы генерит картинку за секунд 20-30, при установке качает на несколкьо гигов модельки, в итоге получается что-то токое на фразу “жесть мы все умрём”
🤯2
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, снова за аниматоров, операторов, актрис, моделей, селебритис.
Моделеров, риггеров, маттепайнтеров, концептеров.
И вот за это вот бессмысленное софтпорно.
Не чокаясь ИИ в городе. Waifudiffusion.

Прогресс просто космический.

Stable Diffusion вырвался на свободу этим летом, а на его базе народ уже творит форменные безобразия.

Да, есть артефакты и любители ловить блох щас будут заглядывать в зубки дареному ИИ. И в глазки.

Но дайте ещё подучиться двухмесячному младенцу. Он покажет зубки.
👍3
Forwarded from commit -m "better"
https://osgameclones.com/

Набрел вот на каталог open source клонов древних и не очень игр.

Их там неожиданно много, правда, 90% - нерабочее и заброшенное УГ, но поковыряться в этом интересно.
🔥2
Forwarded from A Way For People
Крайне интересная статья (которую я даже надеюсь прочитать) о творческом процессе Брайана Ино.
https://reverbmachine.com/blog/deconstructing-brian-eno-music-for-airports/
2
Forwarded from addmeto (Grigory Bakunov)
Пишу я сейчас редко, потому что свет у меня сейчас нечасто, и как следствие — мало нормального интернета. Однако даже 3g хватает, чтобы играть в Contexto. Это очень интересная забава — раз в день загадывается новое английское слово. Вы должны вводить слова, а система показывает, насколько ваше слово по смыслу и контексту близко к загаданному (чем число меньше — тем ближе). Попробуйте, увлекает чудовищно. Не реклама, нет, просто чистый восторг. Кстати, близость слова по смыслу определяет своего рода ИИ, т.е. у ей унутре нейронка.

https://contexto.me/
🔥2
Forwarded from Книжный куб (Alexander Polomodov)
Distributed Systems, 4th Edition

Полгода назад я рассказывал как дочитал книгу ван Стина и Таненбаума по распределенным системам. Она настолько мне понравилась, что я написал краткое саммари первой главы, в которой авторы делали краткий обзор всех тем книги. Дальше эту книгу выбрали слушатели клуба Code of Architecture, чтобы мы начали читать и обсуждать ее ... А дальше авторы выпускают в январе 2023 года новое издание книги, доступное бесплатно на сайте авторов.
В общем, эта книга - отличный подарок к началу нового года:)

#Architecture #SoftwareArchitecture #DistributedSystems #Software #SystemDesign
3🔥1
Atomic Heart as is
👍1
Сегодня проводил собеседование и в конце порекомендовал кандидату посмотреть на комьюнити "{ между скобок }".
Пошарю рекомендацию и здесь.
В комьюнити периодически читают и обсуждают всякие книги по разработке систем - читали кабанчика, камбалу, сейчас обсуждают книгу по архитектуре ПО.
Также бывают созвоны по всяким около-IT штукам вроде найма или как что устроено в каком-нибудь Postgress с интересными гоcтями.

чат https://t.iss.one/backend_megdu_skobkah
анонсы https://t.iss.one/megdu_skobok
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Ну, за учителей.

Если вы не помните историю академии Хана, почитайте тут.
Вкратце, он начал заниматься с математикой с сестрой по телефону, потом с другими членами семьи, потом записал обучающие ролики в Youtube. Ну и понеслось.

Сегодня в Академии Хана размещено порядка шести тысяч лекций и более 110 тысяч практических задач по математике, биологии, физике, химии, экономике и другим наукам. Проект, который начался с нескольких роликов самого Хана, превратился в глобальную платформу, с которой сотрудничают НАСА, Музей современного искусства в Нью-Йорке и Массачусетский технологический институт.

А теперь внимание. AI officially enters the classroom: Khan Academy develops GPT-4 based assistant Khanmigo

"Используя искусственный интеллект, мы можем предоставить преимущества индивидуального обучения — глубокое понимание, уверенность, ясность и расширение возможностей — для всех учащихся."

А если серьезно, то chatGPT может объяснить многие вещи гораздо лучше косноязычных кожаных преподавателей, помнит больше, не нервничает, не орет, не требует повышения.

Небольшой файн-тюнинг именно на обучение и разъяснение и вот уже teachGPT идет к вашим детям. Готовьте айпеды.

https://www.khanacademy.org/khan-labs#khanmigo

https://www.businesstoday.in/technology/news/story/ai-officially-enters-the-classroom-khan-academy-develops-gpt-4-based-assistant-khanmigo-373433-2023-03-15
3
Подборка на почитать в выходные

1. Билл Гейтс про новую технологическую революцию и начало эры AI (https://www.gatesnotes.com/The-Age-of-AI-Has-Begun). Странно, правда, что первой революцией он назвал GUI, второй AI, а про Интернет умолчал. Но мы же помним, как он в какой-то момент быстро туда побежал догонять и перегонять Netscape.

2. Microsoft поделился своими наблюдениями по исследованию интеллекта GPT-4 в статье “Sparks of Artificial General Intelligence: Early experiments with GPT-4” (https://arxiv.org/abs/2303.12712).

3. Большая статья про то, что гонка за AI началась, но её стоит остановить (https://www.vox.com/the-highlight/23621198/artificial-intelligence-chatgpt-openai-existential-risk-china-ai-safety-technology).

4. Jaron Lanier про AI и вообще (https://www.theguardian.com/technology/2023/mar/23/tech-guru-jaron-lanier-the-danger-isnt-that-ai-destroys-us-its-that-it-drives-us-insane).

5. LLM -- это новые CPU, но вот Intel ли OpenAI… (https://every.to/divinations/llms-are-the-new-cpus).
👍1
На выходных обсудили и покритиковали страхи, риски, опасения с товарищами из чята https://t.iss.one/agi_risk_and_ethics

В основном всё крутилось вокруг недавней публикации мнения Харари и ко в NYT, но зацепили и "4. Jaron Lanier про AI и вообще" из списка на почитать в выходные от гонзо-обзоров из репоста выше.

https://www.youtube.com/watch?v=ZbXoEjmNqyI

Если понравилось или не понравилось - пишите что и как в комментарии к видео, сюда или сразу в чат по рискам AGI.

Если появилось желание тоже обсудить ИИ, AGI, как это влияет или повлияет на наш мир - также обращайтесь, попробуем ещё собраться и получше понять, что вообще происходит и куда это всё летит (хотя Летов уже всё и заспойлерил)
2
Interesting thoughts about AI vs. AGI in a recent podcast with David Deutsch:

Naval Ravikant: Related to that, we’ve touched upon AGI [artificial general intelligence] here and there. You have said AGI is absolutely possible, and that Turing settled that issue. Now some people are saying it’s almost inevitable and we have to worry about things like AGI alignment. I’m wondering if you have thoughts on both, is self-improving, runaway AGI here? And is this something that we need to align with our beliefs, whatever those are?

In fact, I don’t think we, as humans, can even agree upon alignment, but suppose we could. How would we align AGI?

David Deutsch: Yeah, and we don’t even any longer try to align humans in the way that people want to align AGIs, namely by physically crippling their thinking. Yes, I don’t think we’re anywhere near it yet, I’d love to be wrong about that, but I don’t think we’re anywhere near it. And I think that AI, although it’s a wonderful technology, and I think it’s going to go a lot further than it is now, AI has nothing to do with AGI. It’s a completely different technology and it is in many ways the opposite of AGI. And the way I always explain this is that with an AGI or a person, an artificial person, their thinking is unpredictable; we’re expecting them to produce ideas that nobody predicted they would produce, and which are good explanations, that’s what people can do. And I don’t mean necessarily write physics papers or whatever, we do this thing in our everyday lives all the time.

You can’t live an ordinary human life without creating new good explanations. An AGI would be needed to build a robot that can live in the world as a human, that’s Turing’s idea, with what is mistakenly called the Turing test. Now, why an AI is the opposite to an AGI is that an AGI, as I said, can do anything, whereas an AI can only do the narrow thing that it’s supposed to do, like a better chatbot is one that replies in good English, replies to the question you ask, can look things up for you, doesn’t say anything politically incorrect. The better the AGI is, the more constrained its output is. You may not be able to actually say what the result of all your constraints must be, it’s not constrained in the sense that you prescribe what it is going to say, but you prescribe the rule that what it is going to say must follow or the rules.

So if it’s a chess-playing machine, chess-playing program, then the idea is that you must win the game. And making a better one of these means amputating more of the possibilities of what it would otherwise do, like namely lose, or in the case of chatbots, say the wrong thing or not answer your question or contradict itself or whatever. So the art of making a good AI is to limit its possibilities tremendously. You limit them a trillion fold compared with what it could be. There are a trillion ways of being wrong for every way of being right, same is true of chess-playing programs. Whereas, for the perfect AGI, as it were, would be where you can show by looking at the program and you can show mathematically that there is no output that it couldn’t produce, including no output at all. So an AGI, like a person might refuse to answer, it should have that right by the first amendment.

So you can’t have a behavioral test for an AGI because the AGI may not cooperate. It may be right not to cooperate because it may be very right to suspect what you are going to do to it. So you see that this is not only a different kind of program, it’s going to require a different kind of programming because there is no such thing as the specification. We know sort of philosophically what we want the AGI to be, a bit like parents know philosophically that they want their children to be happy, but they don’t want — if they’re doing the right thing, they don’t want to say, “Well, my child will never say X, will never utter these words,” like you do for an AI. You will recognize what it means to be happy once they’ve done it.

(there are many other interesting things as well)
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
Юдковский предлагает всем перестать заниматься сексом, потому что может родиться новый гитлер. Литерали.
Можно ли немного дрочить в ванной автор умалчивает(
👏1🤯1🤡1
Forwarded from Denis Sexy IT 🤖
Простите, не могу перестать возмущаться
1
Стать топ-фаном Ванчурина - бесценно.
Не верю теперь никому, кто говорит, что FB бесполезен.
🗿1
Что значит быть специалистом по рискам AGI?

События последних дней заставляют меня говорить о рисках AGI. Вернее о том, что означает быть специалистом по рискам AGI. Эти рассуждения совершенно банальные, но их в наши смутные дни воспроизвести необходимо. Когда истины, считавшиеся непреходящими и устоявшимися, будто бы канули в Лету, необходимо сказать, что никуда они не канули. Они живы. Просто на время выпали из дискурса, но обязательно станут частью мейнстримного видения.

Быть специалистом по рискам AGI — это представлять интересы всех людей. Это думать о том, как в нынешних условиях предотвратить катастрофу, связанную с развитием искусственного интеллекта. Как сделать так, чтобы развитие AGI было безопасным для человечества. Это лоббировать правительства стран мира, чтобы они принимали меры по регулированию искусственного интеллекта. Это быть обеспокоенным тем, какие последствия может принести AGI для всех людей, и бороться за то, чтобы эти последствия были максимально благоприятными. Это разговаривать с теми, кто не понимает опасности, связанные с AGI, и показывать им, что это не фантастика, а реальная угроза.

В общем, я открываю большую тайну: специалист по рискам AGI должен прежде всего думать об интересах и правах всех людей. Вот как все оказывается просто.

Но ничего подобного я среди многих активистов не вижу. У меня складывается впечатление, что это люди, которые очень хотят быть причастными к решению глобальных проблем, но так, чтобы не надо было брать на себя ответственность. Сначала объявим публично и широко, что создаем организацию, еще и данные ваши соберем, несмотря на серьезные кейсы утечек. А еще геймифицируем это самое дело: получай баллы, выполняя задания, это ведь не реальная жизнь с её чудовищными рисками, а весёлая игра. Великолепный план, Уолтер, надежный, как швейцарские часы, а главное — проверенный временем. А еще в социальных сетях напишем заявления, которые можно при желании очень уж удобно трактовать и натянуть сову на глобус. И ведь все это на серьезных щах. И ведь все это тогда, когда реальная угроза нависает над всеми людьми. Но кого это заботит?

Ведь кликбейтные заголовки, треды в социальных сетях и постоянная болтовня про бесполезные идеи позволяют собрать нужное количество лайков. Но вот эта ваша популярность, она вообще для кого? Точно ли для тех, кто действительно заботится о будущем человечества и понимает, какие опасности могут принести развитие искусственного интеллекта? Точно ли для тех, кто хочет узнать больше о рисках AGI и способах их предотвращения? Или у вас теперь другая целевая аудитория?

Развитие искусственного интеллекта — это серьезный вызов для человечества. А в тяжелые времена люди должны помогать друг другу. Вместо этого в очередной раз разочаровываешься в тех, кому раньше доверял.

Уверен, что среди всех, кого мы привыкли считать лидерами в сфере рисков AGI, практически нет специалистов будущего (их удел — это консалтинг). Лидеры будущего сегодня или занимаются исследованиями, или еще не знают о том, как многое им предстоит сделать потом. Когда все закончится.
👍2🔥1😁1😢1