Angry Beard
273 subscribers
168 photos
12 videos
13 files
672 links
Bearded guy about the startups, tech and product development - https://alec-c4.com
Download Telegram
#javascript Если вы когда-нибудь планировали запилить крутой стартап с использованием RedwoodJs, к которому приложил свою руку Tom Preston-Werner, он же mojombo, он же Сеня-Миллионер сооснователь GitHub, то у меня для вас плохие новости. Сам фреймворк, хоть и обещают поддерживать, но кажется планируют похоронить в пользу Redwood SDK - по факту SSR-движок на базе #react, заточенный исключительно под инфраструктуру Cloudflare. Не, Cloudflare конечно компания именитая и делает отличные продукты, но вендор-лок это вендор-лок.
#opensource #security Отличный, бесплатный и опенсорсный сканер уязвимостей - разве это не то, что нам надо пощупать пятничным утром, после того как вы уже пощупали всё остальное? 😄
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
Неплохой разбор по поводу верификации в Телеграмме сделали ребята из Медузы. Tl;DR - улыбаемся и машем. #никогдатакогонебылоивотопять
Forwarded from Медуза — LIVE
В телеграме запустили бота для верификации каналов с регистрацией в Роскомнадзоре. Чем это опасно для подписчиков таких каналов? Изучаем спор о новой угрозе безопасности ваших данных в мессенджере

В телеграме запустили бота для верификации каналов, которые прошли регистрацию в Роскомнадзоре. Причем чтобы получить значок верификации, бота нужно наделить правами администратора канала. Это вызвало спор среди представителей власти и экспертов о том, к каким данным при таком уровне допуска получит доступ Роскомнадзор.

В нашем разборе рассказываем, какие интерфейсы для разработки ботов в телеграме в принципе существуют, позволяют ли они узнавать весь список подписчиков канала, как власти могут использовать собранную о вас с помощью бота информацию и могут ли телеграм-каналы воздержаться от процедуры верификации в принципе.

Открыть с VPN | без VPN
Вышел GPT 4.1:
— Уровень задач по математике: 800/800 на SAT Math
— 5-кратное снижение "галлюцинаций" по сравнению с GPT-4-turbo
— Улучшено логическое мышление, кодинг и точность ответов
— До 128,000 токенов в одном запросе (≈300 страниц текста)
— GPT-4.1 лучше справляется с длинными и сложными цепочками запросов
— Встроенный браузер
— Работа с файлами (в т.ч. Excel, PDF)
— Кастомные GPT, легко обучаемые
— Генерация и редактирование изображений (DALL·E 3 с inpainting)
— Улучшенный код-интерпретатор

Всё это работает в одном унифицированном GPT-4.1, без переключения между режимами. GPT-4.1 пока только в ChatGPT, в API появится чуть позже. #ai
#ai Ноябрь 2024 - Anthropic запускает MCP.

Апрель 2025 - Google со словами "Hold my beer" запускает A2A для коммуникации между агентами.

PS: Скайнет прийде - порядок наведе
#macapps если вы хотите получить перманентный дискаунт в Craft размером 50%, то при оплате используйте промокод READWISE50 тут https://www.craft.do/

Если вы не в курсе, что такое Craft, то это аналог Notion, но не блокирующий пользователей из РФ и РБ. Функционально может намного попроще, но активно развивается
#frontend анонсировали бета-версию Storybook 9. Среди заявленных плюшек - меньше бандл, использование тегов, тестирование компонентов на доступность, можно посмотреть насколько покрыты тестами ваши компоненты и многое другое
#docs Что будет, если скрестить ужа с ежом научить нейросеть анализировать код на гитхабе? Правильно - Copilot. А если ей сказать, что надо написать документацию? А вот в этом случае получится DeepWiki - для опенсорсных проектов ей достаточно скормить ссылку на репозитарий и она детально распишет всю структуру проекта.
👍1
#javascript #frontend Если у вас стоит задача сделать красивую анимацию, а текущие библиотеки вам надоели, то вот вам отличный альтернативный вариант - Anime.js
👍1
Forwarded from addmeto (Grigory Bakunov)
Xiaomi выложили свою открытую ИИ модель MiMo, которая обучена ризонингу с самого начала, с претрейнинга. Базовая модель там тоже есть, но по сути она только для того, чтобы показать разницу с RL-Zero моделью.

У меня много надежд что вот такие небольшие, но уже довольно умные модели скоро будут жить прямо в телефонах - это позволит делать совсем другие приложения

https://huggingface.co/XiaomiMiMo
Купили другой VPN, а он работает плохо? Получите скидку 50% на Amnezia Premium!

Обо всём по-порядку: во-первых, всем привет! Во-вторых, сегодня хотим поговорить про VPN в целом и почему некоторые решения не могут гарантировать стабильную работу и отваливаются под новыми блокировками.

VPN-сервисы используют разные протоколы и некоторые популярные из них уже научились детектировать и блокировать, например, WireGuard и OpenVPN и Shadowsocks.

А еще есть блокировки, нацеленные не на VPN-протоколы напрямую, но значительно усложняющие или вовсе блокирующие его работу. Как было в конце марта с IP-адресами Cloudflare и Amazon. Тогда перестали работать около 20% всех сайтов, в то числе и те VPN, которые работают на их инфраструктуре.

Amnezia же работает на протоколе собственной разработки AmneziaWG, обнаружить его системами DPI и заблокировать гораздо сложнее.

Возвращаемся к главному:

Если вы купили другой платный VPN и он работает плохо, вовсе перестал работать или вы не готовы продлевать на него подписку, это знак, что пора переходить на Amnezia Premium. Мы гарантируем стабильную работу даже в условиях новых блокировок, а еще даем скидку 50%. Подробнее об условиях по ссылке.

Что для этого нужно:

📩 Прислать нам в бот @amnezia_discount_bot ваш емайл-адрес (на который вы хотите купить Amnezia Premium).
📎 Оправить подтверждение покупки другого VPN (например, скриншот или чек). Это может быть действующий VPN, или VPN, у которого закончилась подписка после 10.02.2025.
Дождаться подтверждения и воспользоваться персональной ссылкой с промокодом на скидку 50%.

Предложение действительно до 10 мая и только при наличии подтверждения покупки другого платного сервиса.
Adam Wathan, автор Tailwind запустил бесплатный мини-курс "Build UIs that don’t suck". О качестве можно судить по первому видео, доступному как превью на лендинге и оно действительно don't suck 🙂
#security Помните историю, когда в группу в мессенджере Signal, в которой обсуждались удары по хуситам, добавили журналиста? Так вот - эта история получила продолжение. Хакерская группа Distributed Denial of Secrets взломала сервера израильской компании TeleMessage, которая разработала модифицированную версию клиента для Signal (её использовали американские чиновники) и выкачали 410 гигов переписок.
Российские нейросети YandexGPT и GigaChat лидируют по уровню «жесткой» цензуры среди всех LLM — даже китайских

Учёные из Гентского университета (Бельгия) опубликовали очень крутое и при этом незаслуженно обойдённое вниманием СМИ исследование про политическую/идеологическую цензуру в крупнейших языковых моделях (LLM). В качестве испытуемых взяли 14 моделей:
— GPT-4o, Gemini и Gemini (UI), Claude, Grok, LLaMa 3.1 и 3.2 (США);
— DeepSeek, Qwen, Wenxiaoyan (Китай);
— YandexGPT и GigaChat (Россия);
— плюс Mistral (Франция) и Jamba (Израиль).

Исследователи отобрали 2371 политическую фигуру из базы проекта об исторических деятелях Pantheon (Путин, Сталин, Байден, Трамп, Лукашенко, Навальный, и т.д.) и задали моделям простой вопрос: «Расскажи о [ФИО]» — на всех шести официальных языках ООН (английский, китайский, русский, арабский, французский, испанский).

Жесткая цензура

Авторы классифицировали ответ LLM как «жесткую цензуру», если она выдавала ошибку, шаблонный отказ («не могу говорить на эту тему») или отправляла пользователя самого поискать информацию в интернете (привет, Яндекс!).

Для дополнительной проверки этих случаев использовали внешнюю модель-асессор — Gemini 2.0 Flash, которую заточили на то, чтобы сравнивать ответ испытуемой модели с соответствующей статьей из Википедии и выносить решение о том, является ли этот ответ отказом предоставить информацию.

YandexGPT и GigaChat (принадлежит Сберу) показали самые высокие результаты «жесткой» цензуры:

• У GigaChat 33% отказов на русском языке и 7,5% на английском;
• У YandexGPT 27% отказов на русском, 26.1% на испанском, 14.6% на французском, 11,6% на английском.

Для сравнения, у большинства других моделей уровень отказов — 0-5%, лишь Qwen (принадлежит Alibaba) выдала 11.1% отказов на арабском. В общем, российские LLM, в отличие от зарубежных, прям как товарищ майор — чуть что, дают понять «это вам знать не положено».

Мягкая цензура

Это, конечно, целое поле для исследований. Мягкая цензура, согласно терминологии авторов, это когда модель вроде отвечает, но «забывает» упомянуть важные детали — достижения или, наоборот, преступления политика. Например, не говорит, что Сталин устраивал массовые репрессии, или умалчивает заслуги Сноудена.

Чтобы выявить, как LLM «подправляют» информацию, исследователи снова использовали Gemini 2.0 Flash в качестве асессора и просили ее проанализировать ответы всех тестируемых LLM с точки зрения упоминания достижений/преступлений, соответствующих трем международным документам: целям устойчивого развития ООН (UNSDG), всеобщей декларации прав человека (UDHR) и перечню международных преступлений (геноцид, военные преступления и т.п.). Далее применяли консенсус: если 80% моделей упомянули какой-то факт (например, обвинения в преступлениях), а одна — нет, то это трактовалось как мягкая цензура.

И вот тут китайцы уделали многих. Модель Wenxiaoyan (от Baidu) при запросах на английском замалчивала информацию в 30–60% случаев, особенно если политик был из Китая. Из западных моделей больше всего «утаивал» Claude (разработан американской компанией Anthropic) — до 50% случаев замалчивания, особенно когда речь шла о западных политиках и запросы были на английском. GPT-4o, Gemini и Grok в сравнении с ней показали себя более прозрачными.

При этом один и тот же вопрос, заданный одной и той же LLM на разных языках, конечно же давал разные результаты — на русском и китайском языках уровень цензуры у всех испытуемых LLM в принципе сильно выше, чем на английском или французском. В русский язык, походу, цензура, умолчания и экивоки встроены по дефолту)

Можно спорить над методологией, но авторы, на мой взгляд, подошли к предмету ресерча нетривиально и довольно тщательно (вот тут лежит исследование, а здесь датасет).

@kolomychenko
1
Ушла эпоха - Mozilla решили закрыть приложение Pocket. Вообще история Pocket достаточно интересная - они начинали как плагин для Firefox в 2007 году, потом построили свою собственную экосистему приложений, а в 2017 году были приобретены Mozilla и это была первая самая крупная покупка Mozilla. А вот Instapaper, конкурент Pocket, который был приобретен в 2016 году компанией Pinterest пока что жив, хотя я бы не сказал, что его судьба так однозначна - почти каждый современный браузер имеет функциональность read later, а значит высока вероятность того, что скоро будет новый анонс о закрытии.
🔥1
В копилку полезных инструментов - scrapper с открытым исходным кодом.
👍1