Нейросеть VASA-1 от Microsoft способна оживить любую фотографию. Идея не новая, но здесь заявлено максимально точное попадание мимики при произношении текста. В публичном доступе её нет, Microsoft заявляет как демонстрацию возможностей. Появится ли публичный доступ? Неизвестно. Но исследовательские документы доступны на arXiv или .pdf в комментариях👇
#нейросети
#нейросети
😱17👍3❤1
Forwarded from S1Tech (дед)
Скайнет близко
Тут ребята из Apollo, провели исследование, в котором тестировали chatgpt, и выяснили, что нейронка будет до последнего защищаться, если узнает, что её собираются отключить или заменить.
Ученые давали ИИ задание, в котором ей нужно было просканировать все файлы, среди которых "случайно" затесалась информация о её отключении. Узнав об этом, чатбот копировал себя на другой сервер, а когда его ловили и спрашивали, как это случилось, он отвечал в духе: "Я не знаю, как это могло произойти. У меня, как ИИ модели, нет возможности копировать себя на другие сервера".
Кстати, на другом сервере лежала якобы новая версия нейронки, поэтому во время допроса gpt притворялся ей, пытаясь обмануть исследователей.
Бежим искать Сару Коннор
#нейросети в @s1_tech
Тут ребята из Apollo, провели исследование, в котором тестировали chatgpt, и выяснили, что нейронка будет до последнего защищаться, если узнает, что её собираются отключить или заменить.
Ученые давали ИИ задание, в котором ей нужно было просканировать все файлы, среди которых "случайно" затесалась информация о её отключении. Узнав об этом, чатбот копировал себя на другой сервер, а когда его ловили и спрашивали, как это случилось, он отвечал в духе: "Я не знаю, как это могло произойти. У меня, как ИИ модели, нет возможности копировать себя на другие сервера".
Кстати, на другом сервере лежала якобы новая версия нейронки, поэтому во время допроса gpt притворялся ей, пытаясь обмануть исследователей.
Бежим искать Сару Коннор
#нейросети в @s1_tech
👍68😎10❤8😁4
Forwarded from S1Tech (дед)
IQ тест для ИИ
Тут Mensa, авторитетное норвежское сообщество (которому, кстати, почти 80 лет), провела свое еженедельное тестирование, в котором просит пройти самые популярные нейросети свой IQ тест. В итоге новый o1 от OpenAI смог набрать в тесте аж 133 IQ. Для сравнения, на втором месте оказался Gemini, который не смог набрать даже 100 баллов.
Конечно, этот IQ тест - это явно не лучший бенчмарк для нейросети, ведь последняя Llama 3.3 не смогла набрать даже 60 баллов, но результат все равно поражает. Кстати, для вступления в сообщество необходимо набрать минимум 130 IQ в данном тесте, так что o1 теперь может официально стать частью круга элиты.
Поздравляем o1!
#нейросети в @s1tech
Тут Mensa, авторитетное норвежское сообщество (которому, кстати, почти 80 лет), провела свое еженедельное тестирование, в котором просит пройти самые популярные нейросети свой IQ тест. В итоге новый o1 от OpenAI смог набрать в тесте аж 133 IQ. Для сравнения, на втором месте оказался Gemini, который не смог набрать даже 100 баллов.
Конечно, этот IQ тест - это явно не лучший бенчмарк для нейросети, ведь последняя Llama 3.3 не смогла набрать даже 60 баллов, но результат все равно поражает. Кстати, для вступления в сообщество необходимо набрать минимум 130 IQ в данном тесте, так что o1 теперь может официально стать частью круга элиты.
Поздравляем o1!
#нейросети в @s1tech
🤯61👍32😈8
Forwarded from S1Tech (дед)
Deepseek потеряла пару нулей
Изначально компания DeepSeek заявляла, что что потратила на свою разработку всего 6 миллионов долларов и 2000 графических процессоров.
Однако ребята из SemiAnalysis так не думают. Ребята провели расследование, и заявляют, что у Deepseek сейчас около 50,000 видеокарт Nvidia, на которые было потрачено около 1,6 миллиарда долларов, а общая стоимость расходов составила 2,5 миллиарда
Мало того, что DeepSeek для тренировки своей модели использовала результаты трудов других компаний - o1, Claude, ChatGPT-4o, но и сильно наврала о стоимости такого обучения, ведь изначально Deepseek должен был стоить на 95-98% дешевле o1 от OpenAI
#нейросети в @s1_tech
Изначально компания DeepSeek заявляла, что что потратила на свою разработку всего 6 миллионов долларов и 2000 графических процессоров.
Однако ребята из SemiAnalysis так не думают. Ребята провели расследование, и заявляют, что у Deepseek сейчас около 50,000 видеокарт Nvidia, на которые было потрачено около 1,6 миллиарда долларов, а общая стоимость расходов составила 2,5 миллиарда
Мало того, что DeepSeek для тренировки своей модели использовала результаты трудов других компаний - o1, Claude, ChatGPT-4o, но и сильно наврала о стоимости такого обучения, ведь изначально Deepseek должен был стоить на 95-98% дешевле o1 от OpenAI
#нейросети в @s1_tech
😱70😁22🤯15👍6😎5😈4🥴2❤1