Forwarded from 🔮 奇闻异录 与 沙雕时刻 meme collection (投稿BOT)
This media is not supported in your browser
VIEW IN TELEGRAM
#ChatGPT #GPT4
GPT4 的发布会 www.youtube.com/watch?v=outcGtbnMuQ 全程无尿点。但如果要挑出一段精华,我觉得是下面摘出来的这两分钟时间,演示的是:
1. 在草稿本上用纸笔画出一个非常粗糙的草图
2. 拍照告诉 GPT 我要做一个网站长这样,给我生成网站代码
3. 网站做完,总共历时十秒钟左右
source from weibo
GPT4 的发布会 www.youtube.com/watch?v=outcGtbnMuQ 全程无尿点。但如果要挑出一段精华,我觉得是下面摘出来的这两分钟时间,演示的是:
1. 在草稿本上用纸笔画出一个非常粗糙的草图
2. 拍照告诉 GPT 我要做一个网站长这样,给我生成网站代码
3. 网站做完,总共历时十秒钟左右
source from weibo
Forwarded from 层叠 - The Cascading
近期 ChatGPT 向 Plus 用户推出插件及联网功能。用户可以通过各种插件进行查询以及处理自己的数据。这也带来了一些安全问题:网站主可以在网页中注入 prompt 指令,在用户尝试让 ChatGPT 访问此站点时,ChatGPT 会执行网站主注入的指令,从而可能泄露用户的个人数据并通过联网功能传输到第三方。
- twitter.com/wunderwuzzi23/~
- rez0.blog/~
#ChatGPT #AI #Privacy
- twitter.com/wunderwuzzi23/~
- rez0.blog/~
#ChatGPT #AI #Privacy
Forwarded from 螺莉莉的黑板报
YouTube
Youtuber Jacksepticeye與自己的AI複製人對話:「照他的經營建議,我的頻道早就嗝屁了」|科普長知識|GQ Taiwan
Wired 雜誌邀請 Jacksepticeye 與他的人工智能AI複製人進行對話,並向其提出越來越複雜的問題和命令。 “JacksepticAI”模仿的效果如何——真正的 Jacksepticeye 對結果有何看法?
譯者:Dutch 徐定遠
#科普長知識 #ChatGPT #Jacksepticeye
【更多熱門主題推薦】
【刺青旅行】瘦子、Josh Lin分享自身刺青背後故事 ► http://bit.ly/3EAQHRy
【明星10件私物】周湯豪、周興哲等明星10樣必備小物…
譯者:Dutch 徐定遠
#科普長知識 #ChatGPT #Jacksepticeye
【更多熱門主題推薦】
【刺青旅行】瘦子、Josh Lin分享自身刺青背後故事 ► http://bit.ly/3EAQHRy
【明星10件私物】周湯豪、周興哲等明星10樣必備小物…
Forwarded from DBin_K 🤯 Tingle 灵光一闪 💡 (DBin_K ∣ 人工智矿👾)
有了这样的AI工具,普通人从互联网上获取高质量信息已经变得前所未有的容易。
不夸张地说,这要是普及开来,整个社会的认知层次都能提升一大截。
from 获取信息的方式,决定了你是什么层次的人 #项栋梁 #基本常识
我认为,即使有AI辅助,人的表达和逻辑能力依然重要。
对于 LLM(大语言模型)来说,详尽精确的 Prompt(提示词)是获得高质量回复的关键。简单的说,就是你问的问题要足够“好”。
想要提问出一个“好”问题,需要想清楚自己需要什么,把笼统的问题拆分成具体的问题,把所需的背景信息等补充完整等,再用语言表达出来(这里推荐看《提问的艺术》相关书籍)。完成上述过程需要充分调动逻辑思维和语言表达能力。
这也可能是有些人用了 GPT 觉得也就那样,但有些人却如获至宝(比如我)。可能他们在逻辑和表达上还没有让 GPT 发挥出最大的功效。
#LLM #ChatGPT #随想
Forwarded from Dante's Limbo (Dante At2814)
Telegram
yihong0618 和朋友们的频道
最近几天都在读这篇文章,作者是大名鼎鼎的 Stephen Wolfram,就是创建数学软件 Wolfram 的那位。
此文从 GPT 开始谈起,实际上回溯了神经网络的主线发展历程,从最基础的权重计算,讲到 n-grams 最终到 transformer 的 attention 机制。
虽然我多年前就学习过神经网络,但是有很多细节更多的是知其然不知其所以然,这篇文章读来让我有醍醐灌顶的感觉,把关键的部分的意义都讲清楚了。
作者还很清晰地阐述了神经网络的几个天然局限,这是人脑能轻松做到而神经网络只能望洋兴叹的:…
此文从 GPT 开始谈起,实际上回溯了神经网络的主线发展历程,从最基础的权重计算,讲到 n-grams 最终到 transformer 的 attention 机制。
虽然我多年前就学习过神经网络,但是有很多细节更多的是知其然不知其所以然,这篇文章读来让我有醍醐灌顶的感觉,把关键的部分的意义都讲清楚了。
作者还很清晰地阐述了神经网络的几个天然局限,这是人脑能轻松做到而神经网络只能望洋兴叹的:…