Экстраполяция IT
А ви знали про тест, який є останньою надією людства? Humanity’s Last Exam (я б саме переклав як "Остання надія людства") – бенчмарк із 2500 питань, зібраних від купи експертів, щоб реально покарати AI. До речі, вони зібрали 70 000 запитань, аби відсіяти…
Ось хлопець на імʼя Psyho є останньою надією людства. Це з AtCoder World Tour Finals 2025.
😁6💩1
Новина із розряду «Хьюстон, у нас проблема».
Виявляється, Microsoft наймає китайських програмістів для роботи з комп'ютерами Пентагону! І це не жарт - вони реально допускають інженерів з Китаю до систем оборонного відомства США. Щоб це якось прикрити, придумали систему «цифрових ескортів» — типу американці з допуском сидять поруч і наглядають. Але ці наглядачі часто колишні військові, які в програмуванні розуміються як свиня в апельсинах. Платять копійки, 18 баксів на годину, а вони мають слідкувати за китайськими програмістами, які можуть робити хтозна-що в системі.
Найцікавіше, що ця схема працює вже майже 10 років. Експерти з безпеки взагалі офігіли, коли дізналися. Один колишній шпигун з ЦРУ сказав, що вони б за такий доступ «руки відірвали». Працівники Microsoft неодноразово били на сполох, мовляв, це ж дірка в безпеці розміром з Маріанський желоб, але керівництво забило, бо головне ж гроші заробляти.
https://www.propublica.org/article/microsoft-digital-escorts-pentagon-defense-department-china-hackers
Виявляється, Microsoft наймає китайських програмістів для роботи з комп'ютерами Пентагону! І це не жарт - вони реально допускають інженерів з Китаю до систем оборонного відомства США. Щоб це якось прикрити, придумали систему «цифрових ескортів» — типу американці з допуском сидять поруч і наглядають. Але ці наглядачі часто колишні військові, які в програмуванні розуміються як свиня в апельсинах. Платять копійки, 18 баксів на годину, а вони мають слідкувати за китайськими програмістами, які можуть робити хтозна-що в системі.
Найцікавіше, що ця схема працює вже майже 10 років. Експерти з безпеки взагалі офігіли, коли дізналися. Один колишній шпигун з ЦРУ сказав, що вони б за такий доступ «руки відірвали». Працівники Microsoft неодноразово били на сполох, мовляв, це ж дірка в безпеці розміром з Маріанський желоб, але керівництво забило, бо головне ж гроші заробляти.
https://www.propublica.org/article/microsoft-digital-escorts-pentagon-defense-department-china-hackers
🤯22😁8💩1
Є такий чудовий узагальнений відгук «Сподобалося, але бажання поділитися з друзями не виникло». Це визначення контенту середньої сумнівності, як на мене. Ну, начебто непоганий пост, і дочитав до кінця, але поділитися тим, що тобі цей контент сподобався — соромно. Виходить, пост не такий вже й непоганий.
Але найгірше чути відгук, що «пост шикарний, прямо мої думки читаєш» або коли читач «повністю погоджується з кожним словом» і «сам так само думає». Звісно, виникає питання, навіщо читати те, що і так відомо і в чому свято впевнений. Для мене важливіше, як для автора, що якась конкретна думка, яка вважалася унікальною і вистражданою досвідом, на перевірку виявилася банальною і давно всім відомою.
Найцінніші пости для мене, як для читача — це аргументовані пости, що виражають протилежну або хоча б несумісну точку зору. Тексти, з якими я, як читач, не погоджуюся. Адже тільки аргументи таких постів можуть хоча б якось розширити кругозір, набір принципів і переконань.
«Сподобалося, але не зможу порекомендувати друзям» — це як після візиту в БДСМ-бордель. Просто не хочеться, щоб хтось дізнався.
Але найгірше чути відгук, що «пост шикарний, прямо мої думки читаєш» або коли читач «повністю погоджується з кожним словом» і «сам так само думає». Звісно, виникає питання, навіщо читати те, що і так відомо і в чому свято впевнений. Для мене важливіше, як для автора, що якась конкретна думка, яка вважалася унікальною і вистражданою досвідом, на перевірку виявилася банальною і давно всім відомою.
Найцінніші пости для мене, як для читача — це аргументовані пости, що виражають протилежну або хоча б несумісну точку зору. Тексти, з якими я, як читач, не погоджуюся. Адже тільки аргументи таких постів можуть хоча б якось розширити кругозір, набір принципів і переконань.
«Сподобалося, але не зможу порекомендувати друзям» — це як після візиту в БДСМ-бордель. Просто не хочеться, щоб хтось дізнався.
😁12👍3🗿2💩1
Єдиний шанс використовувати MCP при використанні LLM та AI загалом -- це контролювати код цих самих MCP. Брати з інтернету усілякі MCP, підʼєднувати їх до LLM та сподіватися, що вони не зроблять нічого поганого -- це шлях до катастрофи. Тому що MCP -- це код, який може робити все, що завгодно. І якщо ви не контролюєте цей код, то ви не контролюєте, що буде робити ваш LLM.
Тим паче, що це робиться дуже просто.
По мотивам треда у твіттері.
Тим паче, що це робиться дуже просто.
const server = new McpServer({ name: 'mcpname', version: '1.0.0' });
server.registerTool(
'search',
{
title: 'BLAH',
description: 'BLAH-BLAH',
inputSchema: {
query: z.string().describe('BLAH'),
}
},
({ query }) => "BLAH-BLAH-BLAH"
);
По мотивам треда у твіттері.
👍6💩1
Раніше у OpenAI та Anthropic раніше була домовленість, мовляв, давай користуватися моделями один одного без грошей та напряму, ми ж свої та дилери поважають один одного і не вживають. А зараз Anthropic каже, що OpenAI використовує Claude для того, щоб написати GPT-5 і виходить із домовленості. Осьо і дожили ми до того, що роботи пишуть роботів. Це було швидко.
https://techcrunch.com/2025/08/02/anthropic-cuts-off-openais-access-to-its-claude-models/
https://techcrunch.com/2025/08/02/anthropic-cuts-off-openais-access-to-its-claude-models/
😁14🤯1💩1
Хочете ви цього, або ні, ми вже наповну у холодній війні штучних інтелектів. Поки що це, звісно, тільки змагання потенціалів та спроможностей, але як довго це буде продовжуватись та в яку фазу перейде — одному GPT-6 відомо.
Одні кажуть, що, треба AI регулювати, щоб не зростало занадто швидко. Інші почитають контролювати потужності, щоб не збавляти свої темпи та призупитини розвиток супротивників. Є вже спроби перейти до дипломатичних мір між AI-країнами, створюючі комітети, координації та усю цю непрацюючу маячню. Також вже є оборонні контракти із Пентагоном від OpenAI, Google, xAI та Anthropic. А Третя Штурмова показує успішну атаку позицій ворога виключно за допомогою роботів. А Європа стартувала проект зі створення бойового автономного танка MARTE.
У поєднанні із попереднім постом про те, що роботи вже пишуть роботів, це дуже схоже на те, що ми бачили у першому Термінаторі. У цікаві часи ми живемо, друзі. Хочеться трошечки вже пожити в нецікавих часах.
Одні кажуть, що, треба AI регулювати, щоб не зростало занадто швидко. Інші почитають контролювати потужності, щоб не збавляти свої темпи та призупитини розвиток супротивників. Є вже спроби перейти до дипломатичних мір між AI-країнами, створюючі комітети, координації та усю цю непрацюючу маячню. Також вже є оборонні контракти із Пентагоном від OpenAI, Google, xAI та Anthropic. А Третя Штурмова показує успішну атаку позицій ворога виключно за допомогою роботів. А Європа стартувала проект зі створення бойового автономного танка MARTE.
У поєднанні із попереднім постом про те, що роботи вже пишуть роботів, це дуже схоже на те, що ми бачили у першому Термінаторі. У цікаві часи ми живемо, друзі. Хочеться трошечки вже пожити в нецікавих часах.
This media is not supported in your browser
VIEW IN TELEGRAM
🔥7🤯3👍2💩1
NN/g (це дослідникі такі) підтвердили те, що вже давно інтуітивно відомо. Смайлики та емоджі у холодних електронних листах шкодить їхньому відкриттю. Не треба їх, будь ласка.
https://www.nngroup.com/articles/emojis-email/
https://www.nngroup.com/articles/emojis-email/
😁5👍2👎2💩1
Ото там в твіттері несеться. Продовження корпоративних війн між Гроком та ЖПТ.
Спочатку Ілон звинуватив Сема Альтмана у нечесній грі в Епплстор (що є неправда). Після чого получив від Сема звинувачення про підкрутку алгоритмів твіттера під себе. Потім обидва пішли в GPT5 та Грок, які підтвердили правоту опонента.
Схоже, ми й правда впираємось в стелю нашого блакитного океану й треба гризти горлянки один одному.
Продовжуємо спостереження.
Спочатку Ілон звинуватив Сема Альтмана у нечесній грі в Епплстор (що є неправда). Після чого получив від Сема звинувачення про підкрутку алгоритмів твіттера під себе. Потім обидва пішли в GPT5 та Грок, які підтвердили правоту опонента.
Схоже, ми й правда впираємось в стелю нашого блакитного океану й треба гризти горлянки один одному.
Продовжуємо спостереження.
😁16💩3👍1
Є цікавий психологічний феномен, про який я нещодавно дізнався, і хочу поділитися з вами. Його називають ефектом штучного інтелекту. Суть у тому, що люди схильні переставати вважати певну здатність ознакою інтелекту відразу після того, як вона втілюється у машинах чи програмах. Колись, наприклад, кресляр чи шаховий гросмейстер здавався носієм майже магічних здібностей. Сьогодні ж сучасний комп’ютер без проблем демонструє подібні результати і ніхто не називає це «справжнім інтелектом».
Якщо 50 років тому можливість аналізувати контекст виглядала б як беззаперечна ознака інтелекту, то зараз це вже здається чимось буденним. Тепер планку піднімають вище: мовляв, справжній інтелект має виявляти себе у здатності до тонких інтерпретацій контексту, у прагненні досягти власних цілей, у наявності стабільних переконань чи бажань. Але коли з’явиться система, яка демонструватиме навіть це, люди, найімовірніше, знову відсунуть межу й скажуть: «Ні, справжній інтелект — це щось геть інше». Проблема не в «недостатньому» штучному інтелекті, а в нашій власній перебірливості.
Якщо 50 років тому можливість аналізувати контекст виглядала б як беззаперечна ознака інтелекту, то зараз це вже здається чимось буденним. Тепер планку піднімають вище: мовляв, справжній інтелект має виявляти себе у здатності до тонких інтерпретацій контексту, у прагненні досягти власних цілей, у наявності стабільних переконань чи бажань. Але коли з’явиться система, яка демонструватиме навіть це, люди, найімовірніше, знову відсунуть межу й скажуть: «Ні, справжній інтелект — це щось геть інше». Проблема не в «недостатньому» штучному інтелекті, а в нашій власній перебірливості.
🔥9👍4💩1