Все о блокчейн/мозге/space/WEB 3.0 в России и мире
18.9K subscribers
2.03K photos
358 videos
123 files
6.81K links
Области интересов канала: блокчейн, мозг(BCI), space tech, цифровая экономика, WEB 3.0 в России и мире.

Основатель @AniAslanyan

English channel https://tttttt.me/alwebbci

Регистрация в перечне РКН https://knd.gov.ru/license?id=67374142772bb113f528001c&regis
Download Telegram
Уровень троллинга - Бог. Илья Суцкевер одним твитом просто обнулил OpenAI. Он пишет, что , конечно, у OpenAI будет AGI, да еще и безопасный.

Конечно, «будет», ведь Илья ушел из компании, а это значит:

1. Под вопросом создание настоящего #AGI, конкурентного с Google, потому что его создание было в руках Суцкевера. В его мозге весь реальный расклад.

2. То, что получится после ухода Ильи у OpenAI, это будет слабая игра, так как все держалось в голове Суцкевера.

О том, как так получилось, что #Суцкевер ушел, читайте здесь https://tttttt.me/blockchainRF/9844
За последние несколько месяцев из OpenAI ушли многие люди, которые были, как в команде Суцкевера, так и в других командах.

Из того, что мы нашли в паблике - Уильям Сондерс, Павел Измайлов, Леопольд Ашенбреннер.

Кто-то ушел в стартап Маска, xAI.

В любом случае, уход массовый как со-основателей #OpenAI ( #Суцкевера и #Карпати) серьезная история, следствие скандала #увольненияOpenAI , где в итоге Сэмом и Ильей скорее всего было принято решение, что работать они не смогут дальше вместе, но, чтобы не испугать инвесторов, то уход Ильи будет не моментальный, а через полгода.

Если посмотреть на то, что было сделано за полгода, то видно, как #Альтман ходил на встречи с богатейшими людьми мира и пытался собирать деньги срочно на свой проект по чипам. Пока неизвестно, что ему удалось.

Одновременно с этим #Microsoft наняли всю команду исследователей стартапа #Inflection, которые были конкурентом OpenAI. Они диверсифицировали свои риски. И эта команда уже внутри MSFT создала большую языковую модель.

OpenAI был не просто стартапом - однодневкой, его основатели хотели сломать ход игры на шахматной доске ИТ-гигантов. То есть амбиции были огромные. Они хотели занять место #IBM, #Google.

Об этом можно прочитать в сливных исковых документах, когда Маск начал судиться с OpenAI.

Если вы не понимаете/не знаете до конца кто такой Илья Суцкевер, то вот короткое интро+ссылки:

В 2012 году #Хинтон #Суцкевер и Алекс Крижевский разработали систему, способную анализировать тысячи снимков и обучать саму себя распознавать в реальности похожие объекты с высочайшей точностью. Эта разработка называется AlexNet, она признана новаторской. Это была первая работа, которая популяризировала сверточные нейронные сети в компьютерном зрении. С помощью них решаются задачи сегментации, классификации, детектирования, обработки изображений.

https://tttttt.me/blockchainRF/8149

https://tttttt.me/blockchainRF/8390

А также загуглите для успокоения.

В представленной таблице вы можете посмотреть, откуда хантил на свой стартап #xAI #Маск.
Вот почему ушел Илья #Суцкевер и вся его команда.

Сегодня написал пост-объяснение Ян Лейке, который возглавлял команду по безопасности AGI.

А также вышел отличный материал в Vox, написанный со слов сотрудника OpenAI. Кстати, интересный факт, когда человек увольняется из OpenAI, то его ждет неприятный сюрприз - подписание соглашения о не разглашении информации и запрете критики #OpenAI, если человек не подпишет, то потеряет весь капитал.

Капитал является частью зп - это акции, которые сотрудники уже заработали за время работы в OpenAI.

Вот, что Ян Лейке написал, собрали основное, оно же есть в статье Vox:

1. Уйти с этой работы было одним из самых трудных решений, потому что нам срочно нужно выяснить, как управлять и контролировать ИИ-системы, которые намного умнее нас.

2. Я присоединился к OpenAI, потому что считал, что она будет лучшим местом в мире для проведения этих исследований.

Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока не наступил переломный момент.

3. Последние несколько месяцев моя команда шла против ветра. Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее.

4. Создание машин, которые умнее человека, является по своей сути опасным занятием.

OpenAI берет на себя огромную ответственность от имени всего человечества.


5. Последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.

6. Я считаю, что гораздо больше внимания следует потратить во время подготовки следующих моделей на безопасность, мониторинг, (супер)согласованность, конфиденциальность, влияние на общество и смежные темы.