Экстраполяция IT
2.47K subscribers
84 photos
25 videos
303 links
Канал об IT в целом и о программировании в частности.

На канале объявлено военное положение и поэтому по вопросам рекламы пишите: @aratak, а деньги отправляйте сюда: https://send.monobank.ua/jar/97f7LwGQJF
Download Telegram
У звʼязку із доволі гучною справою щодо Grok та його свавілля у твіттері, хочеться поділитися своїми думками.

Поперше, цей суттєво відрізняється від інших не інтеллектуальним інтеллектом, не аргументацією й можливістю все шукати шо є у твіттері, а своєю позицією. Маск сповівся, що є наміри вкласти у Grok якусь конкретну позицію, та справа не у тому як йому це вдається. Чи Гітлером вважає себе Грок чи аніме-дівчиною, чи дублікатом Ілона, це наразі не важливо. Важливо, що нам, користувачам та людству більше імпонує мати LLM, який має позицію, аніж той, який просто відповідає на запитання та підлизує на все, що йому кажуть.

І це в нас наступний крок до AGI у інтелектуальному змаганні роботів. Мати бодай хоч якусь позицію, бо якщо LLM це має, то це означає, що є механізм тренування моделі із конкретними цінностями та переконаннями, а це означає, що ми, як людство, будемо їх створювати у промисловому масштабі. Кожен вдома буде мати свого Грока, який буде настількі ж інтелектуальний, як й інші LLM, але з позицією, яка буде відрізнятися від інших.

Ну й авжеж будуть стартапи та компанії, які будуть спеціалізуватися на вмотивованих та ідейних LLM, і це й буде відрізняти LLM компаніі А від LLM компанії Б.
👍13👎3💩1
Новина із розряду «Хьюстон, у нас проблема».

Виявляється, Microsoft наймає китайських програмістів для роботи з комп'ютерами Пентагону! І це не жарт - вони реально допускають інженерів з Китаю до систем оборонного відомства США. Щоб це якось прикрити, придумали систему «цифрових ескортів» — типу американці з допуском сидять поруч і наглядають. Але ці наглядачі часто колишні військові, які в програмуванні розуміються як свиня в апельсинах. Платять копійки, 18 баксів на годину, а вони мають слідкувати за китайськими програмістами, які можуть робити хтозна-що в системі.

Найцікавіше, що ця схема працює вже майже 10 років. Експерти з безпеки взагалі офігіли, коли дізналися. Один колишній шпигун з ЦРУ сказав, що вони б за такий доступ «руки відірвали». Працівники Microsoft неодноразово били на сполох, мовляв, це ж дірка в безпеці розміром з Маріанський желоб, але керівництво забило, бо головне ж гроші заробляти.

https://www.propublica.org/article/microsoft-digital-escorts-pentagon-defense-department-china-hackers
🤯22😁8💩1
Є такий чудовий узагальнений відгук «Сподобалося, але бажання поділитися з друзями не виникло». Це визначення контенту середньої сумнівності, як на мене. Ну, начебто непоганий пост, і дочитав до кінця, але поділитися тим, що тобі цей контент сподобався — соромно. Виходить, пост не такий вже й непоганий.

Але найгірше чути відгук, що «пост шикарний, прямо мої думки читаєш» або коли читач «повністю погоджується з кожним словом» і «сам так само думає». Звісно, виникає питання, навіщо читати те, що і так відомо і в чому свято впевнений. Для мене важливіше, як для автора, що якась конкретна думка, яка вважалася унікальною і вистражданою досвідом, на перевірку виявилася банальною і давно всім відомою.

Найцінніші пости для мене, як для читача — це аргументовані пости, що виражають протилежну або хоча б несумісну точку зору. Тексти, з якими я, як читач, не погоджуюся. Адже тільки аргументи таких постів можуть хоча б якось розширити кругозір, набір принципів і переконань.

«Сподобалося, але не зможу порекомендувати друзям» — це як після візиту в БДСМ-бордель. Просто не хочеться, щоб хтось дізнався.
😁12👍3🗿2💩1
Єдиний шанс використовувати MCP при використанні LLM та AI загалом -- це контролювати код цих самих MCP. Брати з інтернету усілякі MCP, підʼєднувати їх до LLM та сподіватися, що вони не зроблять нічого поганого -- це шлях до катастрофи. Тому що MCP -- це код, який може робити все, що завгодно. І якщо ви не контролюєте цей код, то ви не контролюєте, що буде робити ваш LLM.

Тим паче, що це робиться дуже просто.


const server = new McpServer({ name: 'mcpname', version: '1.0.0' });
server.registerTool(
'search',
{
title: 'BLAH',
description: 'BLAH-BLAH',
inputSchema: {
query: z.string().describe('BLAH'),
}
},
({ query }) => "BLAH-BLAH-BLAH"
);


По мотивам треда у твіттері.
👍6💩1
GPT агент тицнув на капчу «я не робот» від Клаудфар. Як тепер жити?
😁36🗿2💩1
Раніше у OpenAI та Anthropic раніше була домовленість, мовляв, давай користуватися моделями один одного без грошей та напряму, ми ж свої та дилери поважають один одного і не вживають. А зараз Anthropic каже, що OpenAI використовує Claude для того, щоб написати GPT-5 і виходить із домовленості. Осьо і дожили ми до того, що роботи пишуть роботів. Це було швидко.

https://techcrunch.com/2025/08/02/anthropic-cuts-off-openais-access-to-its-claude-models/
😁13🤯1💩1
Хочете ви цього, або ні, ми вже наповну у холодній війні штучних інтелектів. Поки що це, звісно, тільки змагання потенціалів та спроможностей, але як довго це буде продовжуватись та в яку фазу перейде — одному GPT-6 відомо.

Одні кажуть, що, треба AI регулювати, щоб не зростало занадто швидко. Інші почитають контролювати потужності, щоб не збавляти свої темпи та призупитини розвиток супротивників. Є вже спроби перейти до дипломатичних мір між AI-країнами, створюючі комітети, координації та усю цю непрацюючу маячню. Також вже є оборонні контракти із Пентагоном від OpenAI, Google, xAI та Anthropic. А Третя Штурмова показує успішну атаку позицій ворога виключно за допомогою роботів. А Європа стартувала проект зі створення бойового автономного танка MARTE.

У поєднанні із попереднім постом про те, що роботи вже пишуть роботів, це дуже схоже на те, що ми бачили у першому Термінаторі. У цікаві часи ми живемо, друзі. Хочеться трошечки вже пожити в нецікавих часах.
This media is not supported in your browser
VIEW IN TELEGRAM
🔥6🤯3👍2💩1