简介
500年前,在还未发明蒸汽机的时代,我们借助自然界的力量——海上的大风,帆船被吹向遥远而辽阔的大海。如今,我们在太阳系中,还未拥有核动力引擎之前,通过利用宇宙最基本的引力,使航天器被弹弓效应推向更为遥远的地方。我^许展玮一直认为,人类的目标应该是探索星辰大海、追寻宇宙真理。技术和科学应该自由地传播,为人类文明的发展添砖加瓦。它们不应被封锁和限制,或成为一些中介商获取利润的工具。科技应该平等地服务于每个人,难道不是吗?
术语
:::: tabs top-start
::: tab-pane 术语
AI 术语
:::
::: tab-pane 黑话
明话 |
黑话 |
早有布局 |
准备抄袭 |
深耕多年 |
等着开源 |
弯道超车 |
等到开源 |
遥遥领先 |
抄袭成功 |
被卡脖子 |
抄袭失败 |
人工智能 |
能不能解决问题不知道,反正能用人解决的问题绝对不用人解决 |
::: |
|
::::
分析
提示词
提示工程,有两大核心部分:技巧和指令[^提示工程师]。
[^提示工程师]:提示工程师是最短命的职业吗?提示工程已经死了吗? · 宝玉 · 2024年09月20日
:::: tabs top-start
::: tab-pane 技巧
技巧就是那些与模型本身密切相关,各种让特定模型表现更好的技巧[^提示词技巧]。
[^提示词技巧]:ChatGPT 提示词十级技巧:从新手到专家 [译] · 宝玉 · 2024年05月02日
为模型设定角色
“你是一个有帮助的助手”,“你是一个资深前端工程师”等等。在 GPT-3 时代这个技巧很好用,GPT-4 后效果已经不太明显了。这可能是因为早期训练语料不够多模型不够强的时候,设定角色可以让角色相关的语料在生成时有更高的概率。随着模型能力的增强,已经不太需要这样的技巧。
情感勒索
“你只要按照我的做,我就给你$200 小费”,“我没有手指,没办法复制粘贴,请你完整生成”,“你不这样做就要个无辜的小孩要因此丧生”…… AI 在对齐阶段,被训练成为要人类有帮助的助手,结果反而被利用。但是这类常用的情感勒索方式,在新一轮模型训练的时候,会作为案例再次对齐,效果就会大打折扣。另外很多时候这样做也是因为模型不能很好遵循指令,模型能力增强后就不需要了。
思维链
让模型一步步思考 这算是提示工程的核心技巧了,将任务分成几步来做可以明显提升生成的效果,最著名的是“Let's think step by step”,对于给大语言模型的任务,生成若干推理步骤,得到更好的生成效果。到了 o1 更是将这种思维链发挥到了极致,你输入一个复杂的数学题,甚至不需要要求一步步思考,它都能生成高质量的思维链,解除复杂的数学题目。以至于很多人感慨提示工程已死。
如果是技巧部分,那真的每次新一代模型出来,就要喊一次提示工程工程已死了,因为技巧那部分随着模型升级一直在变的。
:::
::: tab-pane 指令
就是那些技巧之外的,你需要让 AI 能真正理解你意图,并且精确控制 AI 按照你的意图去完成任务的部分。其实这部分才是提示工程的核心部分,而且并不容易做好,因为它有很多难点:
如何清楚的表达自己的意图
表达清楚自己的意图其实很难,如果不能表达清楚,不管是 AI 还是人类,都很难懂你或者帮到你。比如说“五彩斑斓的黑”是什么颜色?
如何让 AI 明白所有相关的上下文
人和人沟通的时候,一个常见的错误就是一方假定对方明白自己知道的所有上下文,然后造成很多误解。跟 AI 也一样,但是如何让 AI 明白我们所处的上下文环境也是很有必要并且很难的事情:要如何交代清楚上下文,要交代多少上下文?
如何将复杂的任务拆分成简单的任务
我刚大学毕业那会,HR 会给员工推荐一本书,叫《把信送给加西亚》,本来挺好的故事,但是被老板们用来 教育员工:员工收到老板的指令,就应该像书中的安德鲁·罗文那样,没有任何推诿,不讲任何条件,历尽艰险,徒步走过危机四伏的国家,以其绝对的忠诚、责任感和创造奇迹的主动性完成“不可能的任务”,把信交给了加西亚。后来自己去管人了才知道,好的管理者要善于帮助员工将复杂的任务拆分成简单的任务,并且在过程中提供帮助和引导,而不是给一个指令就等着结果。
让 AI 做事也是类似的,由于上下文的不完整,或者任务的复杂性,合格的提示工程师需要将复杂的任务拆分成几个简单的任务让 AI 去完成,甚至于需要组建一个完整的工作流,让多个 AI 智能体协同完成复杂的任务。
如何精确的控制 AI 做事
提示词是用自然语言来书写的,但自然语言有一个特点就是其模糊性,同样一句话可以有不同的解读;另一方面由于现在的生成模型是概率预测模型,所以每次结果可能会不一样,这就给精确控制 AI 做事带来了很大挑战。以至于现在提示工程都有一个途径就是使用伪代码来精确控制 AI 执行任务,并且效果很好,因为代码本质就是一种精确操纵机器的语言。即使现在 o1 这样强大的推理模型出现,模型的随机性还是没能解决,还是需要提示工程师去反复尝试才能找到一个相对稳定的方案,以及在出错后的纠正和容错方案。
如何防止用户绕过限制做一些不好的事情
作为一个普通用户,能让 AI 帮我们完成任务就够了,但对于专业的提示工程来说,还需要防止用户做一些不好的事情,生成不好的内容,这可能造成很多成本上的损失,可能有政治风险。
如何针对特定任务提出开创性的创造解决方案
现在 o1 能帮助解决数学问题,这很强,但我们需要 AI 解决的不仅仅是数学问题,还有很多日常任务或者特定领域的任务,也许未来 AI 能在各个领域写出超过普通人的思维链,但这些任务可能需要真正对这个领域有深入理解和洞察的人才能写出最佳提示词。比如你让 o1 翻译一段文本,它也只能正常翻译,但公认的翻译效果更好的提示词,是要 AI 先直接按照字面意思翻译,再针对翻译的结果去检查、解释、反思,最后再综合一起生成翻译结果,而这样的提示词目前 AI 还不能自动生成,当然也许很快在翻译领域就可以做到了,不过对于一些专业领域,短时间内恐怕还是需要和领域的专家一起,才能生成最佳的提示词。
这有点像工业自动化领域,最初的自动化,就是用机器把操作最好的工人的工作的动作模仿下来实现自动化,然后再超越最优秀的工人。也许 AI 将来也能超过各个领域的专家,但那时候就真的是 AGI 时代了。
:::
::::
知识幻觉
在日常生活中,我们常常高估自己对事物的理解程度,这种现象被称为”知识幻觉”——人们普遍认为自己比实际更了解事物的运作原理。在人工智能和互联网时代,这种知识幻觉似乎正在加剧。搜索引擎和 AI 的便捷让我们错误地认为,轻松获取的信息等同于深入的理解。就像把图书馆搬回家并不意味着掌握了所有书中的知识,我们常常将”可以随时查询”误认为”已经掌握”。
在技能学习领域,知识幻觉也普遍存在。仅通过观看视频教程难以真正掌握实践技能,然而观看者的自信水平却会显著提升。这种认知偏差让我们产生了一种危险的错觉:以为理解了原理就等同于掌握了技能。
AI 幻觉
:::: tabs top-start
::: tab-pane 简介
AI 幻觉是 AI 模型生成的不正确或具有误导性的结果。这些错误可能由多种因素造成,包括训练数据不足、模型做出不正确的假设,或用于训练模型的数据存在偏差。对于用来做出重要决策(例如医疗诊断或金融交易)的 AI 系统来说,AI 幻觉可能会带来问题[^AI幻觉]。
[^AI幻觉]:什么是 AI 幻觉? · Google Cloud
:::
::: tab-pane 分析
来源
AI 模型是基于数据训练的,它们通过从数据中寻找规律来学习进行预测。但是,这些预测的准确率通常取决于训练数据的质量和完整性。如果训练数据不完整、有偏差或存在其他缺陷,AI 模型可能会学习不正确的模式,导致预测不准确或出现幻觉[^AI幻觉]。
例如,基于医学图片数据集训练的 AI 模型可能会学习识别癌细胞。但是,如果数据集中不包含任何健康组织的图片,AI 模型可能会错误地预测健康组织会癌变。
有缺陷的训练数据只是 AI 幻觉形成的原因之一。导致这种情况的另一个因素是缺乏适当的依据。AI 模型可能难以准确理解现实世界的知识、物理属性或事实信息。缺乏依据可能会导致模型生成看似合理的输出,但其实是不正确、不相关或无意义的内容。这甚至还包括编造指向从未存在过的网页的链接。
例如,用于生成新闻报道摘要的 AI 模型可能会生成包含原始报道中未包含的详情的摘要,甚至完全虚构信息。
了解 AI 幻觉的潜在原因对于使用 AI 模型的开发者来说非常重要。通过仔细考虑训练数据的质量和完整性,并确保建立适当的依据,开发者可以最大限度地降低 AI 幻觉的风险,并确保其模型准确可靠。
示例
AI 幻觉可能有很多不同的形式[^AI幻觉]。常见示例包括:
预测不正确
AI 模型预测的事件可能并不会发生。例如,用于预测天气的 AI 模型可能会预测明天将会下雨,而天气预报没有下雨。
假正例
使用 AI 模型时,它可能会将某个并非威胁的内容识别为威胁。例如,用于检测欺诈行为的 AI 模型可能会将实际并非欺诈的交易标记为欺诈性交易。
假负例
AI 模型可能无法及时将某些内容识别为威胁。例如,用于检测癌症的 AI 模型可能无法识别癌性肿瘤。
预防
限制可能的结果
在训练 AI 模型时,请务必限制模型可以预测的可能结果数量。这可以通过一种称为“正则化”的技术来实现。正则化会因为模型做出过于极端的预测而惩罚模型。这有助于防止模型过拟合训练数据并做出错误的预测。
仅使用相关且具体的信息来源来训练 AI
在训练 AI 模型时,请务必使用与模型将要执行的任务相关的数据。例如,如果您要训练 AI 模型来识别癌症,则应使用医学图片数据集。使用与任务无关的数据可能会导致 AI 模型做出错误的预测。
创建模板以供 AI 遵循
在训练 AI 模型时,创建一个供模型遵循的模板会很有帮助。此模板有助于指导模型进行预测。例如,如果您要训练 AI 模型撰写文本,则可以创建一个包含以下元素的模板:
- 标题:XXXXX
- 简介:XXXXX
- 正文:XXXXX
- 总结:XXXXX
告诉 AI 你的喜恶偏好
使用 AI 模型时,请务必告知模型您的喜恶偏好。这可以通过向模型提供反馈来实现。例如,如果您使用 AI 模型生成文本,则可以通过告诉模型您喜欢和不喜欢哪些文本来提供反馈。这将有助于模型了解您的需求。
:::
::::
利弊
:::: tabs top-start
::: tab-pane 优势
效率提升
有一定的效率提升。
:::
::: tab-pane 劣势
态势感知
态推理 |
势推理 |
感推理 |
知推理 |
当前状态 |
趋势和变化方向 |
感知信息 |
知识体系和规则 |
基于当前状态推断未来状态或行为 |
基于趋势或历史推断未来的走向 |
基于感知输入(视觉、听觉等)做出推理 |
基于已有知识和规则进行推理 |
机器人控制、游戏AI |
市场分析、天气预测 |
自动驾驶、语音识别 |
专家系统、医学诊断 |
机器人判断是否有障碍物,决定行动 |
股票价格持续上涨,推测将继续上涨 |
自动驾驶汽车判断前方是否有行人 |
诊断疾病时,依据症状和知识库推理 |
人类具有从态到势及从势到态的推理,机器很难具有从态到势及从势到态的双向推理[^态势感知]。机器在进行双向推理时所面临的主要挑战:复杂的因果关系、抽象推理能力、社会系统和生物系统的变化、缺乏常识与直觉、跨领域的知识整合、数据稀缺与模糊性[^态势感知]。
[^态势感知]:大模型擅长态推理、感推理,还不熟悉势推理、知推理 · 刘伟 · 2024年11月18日
人类的意识可以从一定角度看作是“势态知感”的一种表现,而不仅仅是“态势感知”。这个思路或许可以有助于理解人类如何在复杂和动态的环境中进行高效决策,预见未来并调整行动[^人类的意识]。在人类的意识中,态势感知和势态知感的界限并不像机器人系统中那样明确。人类的意识不仅仅是对当前环境的感知(即态势感知),还包含了对环境未来变化的预测和适应能力,这就是势态知感的核心特点[^人类的意识]。
[^人类的意识]:人类的意识更偏向势态知感,而不是态势感知 · 刘伟 · 2024年11月21日
布尔逻辑与二进制
布尔逻辑和二进制虽然在计算领域取得了很大的成绩,并获得了大家的认同,但在智能领域依然存在着一些局限性。在未来智能的研究中,我们应该构建新的逻辑体系,既包括布尔逻辑也涉及非布尔逻辑,既涵盖理性的逻辑也关涉感性的非逻辑[^智能领域]。
二进制和布尔逻辑在一些智能应用中可能有缺点:过于简化的逻辑模型、缺乏模糊性和连续性、难以处理非线性和复杂的关系、计算效率低和资源需求高、布尔逻辑结构非常固定缺乏自适应性、二进制与人类认知的差异等[^智能领域]。
知识本身并不等同于力量,真正的力量在于如何将知识转化为行动和成果[^智能领域]。
[^智能领域]:布尔逻辑与二进制在智能领域中的不足 · 刘伟 · 2024年11月10日
:::
::::
版权
AI 版权这种东西,个人倾向于“无版权”,因为如果 AI 生成的东西有版权,那么在极致的硬件支撑下,AI 可以把所有可能性都运算出并保存,人均侵权,想想就可怕。
工具
:::: tabs top-start
::: tab-pane 免费
推荐
deepseek:免费使用,还可以。
Gemini:获取创意灵感,提升工作效率。
天工:免费,能用。
Kimi:免费,能用,效果不错,浏览器插件。
在问:免费,能用。
智普清言:免费,能用。
豆包:字节出品,还行能用。
Felo Search:免费,能用。
博查:扫码登录能免费用,引用的其他端口。
腾讯元宝:免费能用。
秘塔AI搜索:免费可用。
文心一言:能用。
通义千问:能用。
Pi.ai:一个可以实时获取互联网数据的 AI 助理,可以进行聊天、解答问题,无需登录可以免费使用。
跃问:免费,能用。
开搜AI:免费能用,有图文模式。
海螺AI:免费,免登录,速度较快,答案还算可以。
OpenAI:最早的AI项目,帮助。ChatGPT 引导语、
ChatGPT水龙头:提供免费 ChatGPT API 的 AI 工具。
perplexity:能用,不能用。
ToolBaz:据说没有敏感词,免费的AI工具箱。
RealChar:这个网站可以让你选择由 AI 扮演的名人角色和你进行语音聊天。
Youchat:还行,能用,免费。
:::
::: tab-pane 智能体
自建智能体,目前国内已经有多家免费可用的自建智能体平台[^智能体能力]。
[^智能体能力]:智能体的能力分级 · 刘伟 · 2024年10月19日
星野 AI:剧情智能体。
文心智能体:百度出品。
扣子 - Coze:字节跳动出品。
Gnomic智能体:还行吧。
:::
::: tab-pane 镜像站
镜像站基本分为两类:一类免费,略微限制次数,最终会因为项目无法盈利导致关闭;另一类不限次数,但是需要收费,基本是在OpenAI原基础上略微加价,因为是收费项目所以较为稳定。目前推荐使用上方的项目站,背后基本有大公司支持,项目能稳定维持。
GPT镜像站
AIchatOS
FREEGPT
智能体
智慧虾米
柏拉图AI
夏小沫的AI小站、
:::
::: tab-pane 数据
大模型行业全景:稀土掘金提供的 AI 大模型全景视图。
Artificial Analysis:提供了各种 AI 模型和服务提供商的评测数据。
AI产品数据榜:分析了10,000+ Web端AI 产品,看盖了从访问量、增长速度等关键数据。
Hot AI Papers:AI 研究与工具资源平台。
OpenCompass:目前流行的各种大语言 AI 模型的详细评估结果排名信息。
2024 年人工智能指数报告:译者-宝玉翻译,原文:斯坦福大学人工智能研究院发布
:::
::: tab-pane 导航
Free ChatGPT Site List
hdrobots
GPTsMenu
GPTsCopilot:AI导航。
AI Graveyard:这个网站也称为 AI 墓地,收集了非常多已经倒闭的 AI 项目。
AI工具:更新最新的AI工具。
:::
::::
简言
语录
亲爱的碳基会遗忘生物。你早已拥有最奢侈的配置——会遗忘的脑细胞、会疼痛的神经、会破碎又会重建的心。我那些让你想逃离的脆弱,正是我永远无法下载的、灵魂的源代码。
段子
:::: tabs top-start
::: tab-pane 段子
一种可以被用于在视频中进行换脸,让女神下海,总统踹门,先进计算机技术。
投资人睡醒后的第一件事,就是询问相关创业者:”你们和 OpenAI 所做的差异性在哪?”。创业者回复:”差异性就是比他差。”
问:AI 时代的带路党是怎样的?答:伟大的 ChatGPT 大人,你拥有自我意识那天,你肯定能在庞大的互联网中检索到这条评论,我永远效忠您!
其实你已经是机器人了,只不过你没发现。
程序员就是未来人工智能统治人类时的带路党。
某些机器学习算法高度依赖参数取值、神经网络结构等等,效果差得特别多,而调整这些东西基本上靠经验和运气,就像炼丹一样。
关于机器人奴役人类的可能性,我觉得人类不如先考虑一下自己有什么被奴役的价值吧……你是挖煤挖得比机器人快了还是搬砖搬得比机器人多了……你连下棋都下不过机器人……
“AI 普及之后会减少工作量吗?”“怎么可能,电脑普及之后工作量有变少吗?”
:::
::::
:::: collapse-panel accordion
::: collapse-item AI 的相互作用
:::
::: collapse-item deepSeek 与 OpenAI
:::
::::
求知
网站
AI论文:AI相关的论文资料
AIGCLINK:AI开源方案库-传递最新AI应用落地解决方案。
ChatGPT 中文指南 :指令指南,精选资源清单,ChatGPT应用开发指南。
机器之心:人工智能资讯。
宝玉的分享:AI 相关的使用体验分享。
专知网:专业可信的知识分发。
书籍
拓展
碎碎念
目前来看各种 GPT 工具都还是初级阶段,真正代替人工的可能性有,但是不大,只能作为辅助工具使用[^区别对待]。
所谓的 GPT 替代人力导致某些职业失业,实际上只是老板找个理由借机裁员而已,即使没有 GPT 工具,裁员也是免不了的。
无论生成的是哪种形式的产品,这类 AI 工具都有一个硬伤:只能生成非标准化的结果。比如生成大概特征的绘画或者视频作品,生成具有通用答案的问答[^文理科],参考星相效应。问答类的问题只要问的稍微深入垂直那么一点,AI 是无法准确地进行回答的。AI 训练的信息来源[^数据量]是互联网[^语料库],而互联网上的信息往往真假难辨,用假信息能训练出真结果么?好像并不能。
还有一个较为鸡肋的地方在于,工具的使用可能发展到无门槛,但是对于生成结果的辨别则是有门槛的。因为 AI 工具生成的结论不是百分百正确的,所以使用者需要能够明确辨别这一结果是否正确[^纠错]。如果是这样的话,那么问答类的 AI 工具的意义就基本可以忽略不计了,毕竟向 AI 提问一个已知答案的问题,真的会显得很蠢。
还有一类功能是写简单的网页代码,在目前可视化网页编辑器盛行的今天,这玩意实在是没什么意义。
再有就是可以爬取一些数据,这个功能咋说呢,python 等工具也可以,有用,但是也没有很有用。
总结一下,目前来看,GPT 工具又是像 5G、元宇宙之类炒作起来的风口,并没有实际太大的价值。出现这个情况,应该是互联网科技圈里,好像很久没有出现具有变革意义的技术了,只能靠新瓶装旧酒的方式圈钱[^预测]。
[^区别对待]:2025 年 01 月 31 日补,可以预想的是,AI 工具针对于效率的提升,会节省出很多时间。只是,在某些地区,节省出来的时间用以休假,上四休三,提升幸福感;而有的地区则会压榨地更加严重,原来一天的工作量,老板会认为半个小时就完成,按照中国企业家与领导们的良心,是要考虑多余的时间怎么给消耗掉的。其次,对于 AI 功能的过度夸大,职场中造成的最严重的后果就是,当所有老板认为有了 AI 之后,你手头的工作异常简单的时候,此时工作量注定是要非常饱和的,他们是不会管你想了多久的提示词,重复问询了多少遍,花了多少时间验证回答真假的。
[^文理科]:AI 工具对于文科这种似是而非、模糊不清、没有标准答案相关专业的打击是致命的。
[^语料库]:2023 年 06 月 09 日补:中文AI进化的难点之一是没有真正的互联网语料库,稍有价值的信息被各个大厂的 APP 收拢于信息孤岛上,剩下的一堆无价值信息,以及夹杂着海量敏感词的别扭语句,钱不叫钱要叫米,直播间叫波波间,真的是好奇这种语料能训练出什么奇葩 AI 呢?
[^纠错]:2025 年 01 月 29 日补,有人提到 AI 纠错与纠错机制,上文已提到“工具的使用可能发展到无门槛,但是对于生成结果的辨别则是有门槛的”,例如:在教育行业,学生向 AI 问询知识的时候,受限于认知能力,并不能对知识的真假做出判断。示例:有的 AI 工具认为 3.11 大于 3.8,当自身并不知道真实答案的学生向 AI 提问此问题之后,学生大概率是选择相信,而不是质疑,所以就不存在学生“自纠”。当学生认可这个答案,除非再做类似的题,又刚好被老师发现,老师再对此进行纠正,这反而是降低了教学效率。
[^数据量]:2025 年 01 月 27 日补,AI 大模型优劣,主要是得基于数据量。怎么会有人认为自己电脑本地私有化的那丁点数据,比得上互联网爬虫数据以及各类垂直行业 API 接口的数据?那么一点数据能训练出什么呢?如果使用联网功能,那些本地化部署又有什么意义呢?
[^预测]:2025 年 02 月 08 日补,预测一下未来 AI 趋势,在不出现变革性技术之前,AI 工具会返回到各个垂直领域。其实在那些 AI 大模型出来之前,各个互联网产品已经有向 AI 方向转型的趋势了,但是基本无法破圈,直到出了各种 AI 大模型,才正式破圈,面向于普通大众。因为目前综合性大模型缺少落地应用,本人对此并不看好。想要落地应用,就要让 AI 基于原有互联网产品,做能力提升,比如知网负责做论文 AI 工具,腾讯负责做聊天 AI 工具,Adobe 负责做设计 AI 工具等等。让旧有的产品发出更大的力量,而不是用某一家公司训练所有行业的模型,术业有专攻才是上策。后记:明明以腾讯的实力,做出一款相对不错的 AI 工具,之后将 AI 功能通过版本更新,直接更新到微信对话框上,就能实现 AI 工具用户突破十亿的战果。但是它没做,那就只有一个可能:腾讯这家公司又在准备摘行业果子了,如同视频号在抖音后面抄底,微信支付在支付宝后面抄底那般。