This media is not supported in your browser
VIEW IN TELEGRAM
Рубрика #НейроПросвет 👺
Развитие технологии дипфейков достигло такого уровня, что подделать фото или видео может практически каждый. Для этого даже не требуется мощный компьютер. «Открытый Нижний» составил гайд, как анимировать любую фотографию на основе мимики из видео, а также сделать дипфейк с веб-камеры. Пользуйтесь 🙌
@opennov
Развитие технологии дипфейков достигло такого уровня, что подделать фото или видео может практически каждый. Для этого даже не требуется мощный компьютер. «Открытый Нижний» составил гайд, как анимировать любую фотографию на основе мимики из видео, а также сделать дипфейк с веб-камеры. Пользуйтесь 🙌
@opennov
Please open Telegram to view this post
VIEW IN TELEGRAM
С развитием технологий мошенники стали активно использовать дипфейки для достижения своих корыстных целей. Примечательно, что злоумышленники могут подделывать как голоса, так и лица людей даже в реальном времени. «Открытый Нижний» составил подборку сервисов и советов, которые помогут распознать подделку.
Подробности — по ссылке
@opennov
Please open Telegram to view this post
VIEW IN TELEGRAM
Нейросети активно присутствуют в нашей жизни уже несколько лет. Технологии прикладного искусственного интеллекта начали применять практически во всех сферах деятельности, в том числе для обучения детей. «Открытый Нижний» решил выяснить, как изменилось образование с популяризацией ИИ, как можно использовать нейросети в качестве репетитора, а также стоит ли воздержаться от использования таких технологий. Разобраться в этом нам помогла руководитель магистерской программы «Искусственный интеллект и журналистика данных», доцент ННГУ имени Н.И. Лобачевского Людмила Макарова.
@opennov
Please open Telegram to view this post
VIEW IN TELEGRAM
Нейросети уже стали неотъемлемой частью нашей повседневной жизни. По данным OpenAI, ChatGPT привлекает около 100 млн пользователей в месяц, обогнав даже TikTok. Однако с ростом популярности искусственного интеллекта возникает множество этических вопросов.
ИИ помогает нам в планировании, поиске информации и управлении умными устройствами, значительно упрощая многие задачи. Тем не менее, использование нейросетей связано с рисками, такими как сбор личных данных, что может привести к их утечке. Например, в январе 2024 года ChatGPT случайно раскрыл конфиденциальные данные пользователей, что поднимает вопрос о безопасности.
Злоумышленники также используют нейросети для создания дипфейков, которые позволяют им выдавать себя за других людей и обманывать доверчивых граждан. Ситуация усугубляется отсутствием строгого законодательства против таких злоупотреблений в России, хотя законопроект о наказании за клевету и мошенничество с использованием дипфейков уже внесен в Госдуму.
Образование — еще одна сфера, где ИИ может быть полезен. Однако преподаватели по-прежнему обсуждают, стоит ли разрешать использование нейросетей для написания научных работ. ННГУ имени Н.И. Лобачевского предложил десять принципов этического использования ИИ в обучении, включая прозрачность, академическую честность и приоритет общения.
Таким образом, несмотря на множество возможностей, нейросети требуют внимательного и ответственного подхода. Важно учитывать не только их пользу, но и потенциальные риски, чтобы технологии служили во благо, а не причиняли вреда обществу.
@opennov
Please open Telegram to view this post
VIEW IN TELEGRAM
Нейросети плотно вошли в нашу повседневную жизнь, однако работа с ними не так проста, как может казаться на первый взгляд. Осваивая новые технологии, новички нередко допускают ошибки, из-за которых ИИ может выдавать неточные или некорректные результаты.
«Открытый Нижний» рассмотрел наиболее распространенные ошибки, а также разобрался, как максимально эффективно использовать технологии прикладного искусственного интеллекта
Топ-5 популярных ошибок новичков при работе с нейросетями — НА НАШЕМ САЙТЕ
@opennov
Please open Telegram to view this post
VIEW IN TELEGRAM