文章主题:关键词:陈巍, NLP专家, ChatGPT, AI聊天原型
本文将介绍ChatGPT的特点、功能、技术架构、局限、产业应用、投资机会和未来。
作者:陈巍 博士,作者本人曾担任华为系自然语言处理( NLP )企业的首席科学家。
🌟作为一位资深的AI与GPU架构专家,我专注于创新技术驱动的高性能计算领域。💡曾任于中关村云计算产业联盟的核心成员,中国光学工程学会权威人士,国际计算机学会(ACM)的活跃会员及CCF的专业委员,这些都见证了我在存储芯片设计和AI领域的专业深度。🏆我的专长在于推动前沿产品的研发,如国内首台可重构存算处理器,它已成功在互联网巨头中进行原型测试,为大算力运算提供了革命性解决方案。💡此外,我还主导了医疗专用AI处理器的落地,实现了AI技术在医疗行业的实际应用价值。🛠️我与阿里平头哥和芯来合作,共同研发出兼容RISC-V/x86/ARM平台的AI加速编译器,这不仅提升了效率,也为行业带来了深远影响。🤝💼在我带领下,建立了国内首个3D NAND芯片架构与设计团队,我们与三星展开了技术竞争,致力于打破行业壁垒。💡同时,我还在嵌入式闪存编译器领域取得了突破,其性能已达到台积电的对标水平,并在实际环境中得到了广泛应用。我的工作成果不仅提升了技术实力,也推动了整个行业的创新和发展。如果你对这些领域的探索感兴趣,欢迎随时交流探讨!🌐
0,引言
先上参考网页或论文。专业的读者可以直接看paper。
🌟Chatbots are transforming the way we interact with technology! 🤖 Whether it’s customer service or personal assistants, language models like ChatGPT are at the forefront of enhancing dialogue. 💬 By continuously refining and optimizing these AI systems, developers aim to deliver more natural, context-aware conversations that feel human-like.🔥The journey towards optimized dialogue starts with understanding user intent. ChatGPT uses advanced NLP techniques to parse through messages, extracting key details to provide accurate responses. 🧠 It’s all about adapting to the nuances of language and anticipating user needs.🔍Next up is improving coherence and relevance. By analyzing past conversations and learning from them, ChatGPT can generate more coherent and on-point replies. This ensures a seamless experience for users, reducing frustration and increasing satisfaction. 💬💬🔥But it’s not just about efficiency – personalization is key! ChatGPT can tailor its responses to individual users based on their preferences and history, creating a truly personalized dialogue. 🤝个人信息的保护 remains a top priority, ensuring user privacy while leveraging data for better interactions.📚Continuous research and updates are the backbone of ChatGPT’s success. As language models evolve, developers strive to incorporate ethical considerations and improve overall performance. 📚💻So, next time you engage with ChatGPT or any other language model, remember they’re working tirelessly to make your dialogue experience smoother and more engaging! 🤝💬✨SEO optimized: “Chatbots Revolutionizing Dialogue: Optimizing Language Models for Natural & Personalized Interactions 🌟”
🌟📊研究揭示新视角:语言模型也能零基础快速学习!🔍🔥最近,一项由顶尖AI研究人员主导的GPT论文震惊了学术界——”Language Models as Few-Shot Learners”。这项创新性工作不仅挑战了我们对人工智能的传统认知,还为未来的教育和知识处理带来了革命性的启示。🎯传统的思维是,复杂的语言任务需要大量的训练数据和时间才能掌握。然而,GPT模型的实验结果颠覆了这一观念——它展示了惊人的学习能力,只需少量示例就能迅速适应新任务。💡这项研究背后的原理在于模型的泛化能力,它能从有限的数据中提取通用知识,而非死记硬背特定模式。这就像一个语言天才,无需从头开始,只需几句话就能掌握新的表达方式。📚对于教育行业来说,这意味着教师可以更有效地教授,学生也能更快地吸收和应用新知识。未来的课堂可能不再受限于数据量,而是更多依赖模型的智慧。🎓SEO优化提示:使用相关关键词如”语言模型”, “零基础学习”, “泛化能力”, “教育革新”等,并确保句子流畅且包含这些概念。别忘了,你的目标是提供高质量的内容,同时也要考虑搜索引擎的喜好!💪
🌟🚀Transforming Language Models with Human Feedback: The Ultimate Guide 🌟Are you looking to enhance the capabilities of your language models and make them more responsive to user instructions? 🔍✨ In this cutting-edge guide, we delve into the exciting world of training AI systems using human feedback to refine their understanding of task execution. 💡Firstly, let’s shed light on the importance of incorporating human oversight in language model development. 🤝🔍 With each interaction, models learn from real-world scenarios and adapt accordingly, ensuring a more accurate and contextually aware response. 🚀Next, we’ll explore various techniques for collecting and utilizing feedback effectively. From simple user surveys to advanced interactive interfaces, we’ll show you how to gather valuable insights that drive model improvement. 💬📊But it’s not just about data – understanding the nuances of language and instruction is key. We’ll delve into natural language processing (NLP) principles and how they play a crucial role in interpreting and executing instructions accurately. 🤖📚And don’t miss out on the benefits of iterative training – continuously refining models based on user feedback leads to better performance over time. 🚀📈To wrap it up, we’ll share best practices for integrating human feedback into your existing language model infrastructure, ensuring a seamless and efficient learning process. 🤝💻So, whether you’re a seasoned AI expert or just starting out, this comprehensive guide is your go-to resource for elevating your language models to new heights. 🚀🚀Remember, all details have been meticulously removed to protect privacy and maintain the professional tone. Let’s dive in and revolutionize the way language models interact with humans! 💡🌐 #LanguageModelTraining #HumanFeedbackAI
📚🚀掌握最新!🔥揭秘RLHF:从人类反馈中驱动强化学习的革命性方法🔍🔍在人工智能领域的探索之旅中,我们正见证一场深刻的革新——Reinforcement Learning from Human Feedback(RLHF),它以独特的方式诠释了人机互动的力量。🎯通过RLHF,机器不仅能学会聪明地行动,还能从我们的直接反馈中汲取智慧。🤝想象一下,你正在玩游戏,每一步都直接影响着游戏的走向。你的每一次选择,无论是胜利还是失败,都是宝贵的训练数据。这就是RLHF的核心理念——将人类的指导转化为机器学习的强大驱动力。💻👩💻RLHF技术通过深度强化学习算法,让AI学会从用户行为中理解意图,不断优化策略。它不仅提高了游戏体验,也为其他领域如自动驾驶、医疗诊断等带来了革命性的可能。💡但别忘了,这背后的科学并不神秘。简单来说,RLHF就像一个聪明的学生,善于吸收并消化我们的反馈,从而逐步成长为真正的专家。🎓👩💻想要了解更多?🚀关注我们,获取最新RLHF应用案例和深入解析。让我们一起见证AI如何在人类的引导下,迈向更智能的未来!🌐#RLHF #人工智能 #人机交互
🏆🚀掌握最新AI动态?探索RHLF算法背后的智慧!🔍🔍【深度解析】CS UT Austin的AI实验室,引领潮流的科研力量,揭秘强化学习与人类反馈的革新之旅!🎓💡论文原作:RHLF —— 一个突破性的路径,将人工智能推向更高境界,借助人类智慧优化决策。🚀🔍原文虽短,却蕴含了前沿技术的火花。我们不仅提供论文链接(cs.utexas.edu/~ai-lab/p),还深入剖析其核心理念与应用价值。💡🎓通过RHLF算法,机器学习不再孤单,它学会了倾听,从反馈中汲取力量。🎯🏆SEO优化提示:使用关键词如”强化学习”, “人类反馈”, “AI优化”, “决策提升”等。🚀如果你对智能科技的好奇心像燃烧的火焰,RHLF论文将是你探索知识的导航灯!💡别忘了,获取更多学术资讯,只需轻轻一点链接。📚—原文已改写,保留了原意但去掉了具体信息,同时加入了SEO优化的词汇和表情符号,以适应搜索引擎和提升阅读体验。
PPO算法:Proximal Policy Optimization Algorithms Proximal Policy Optimization Algorithms
今年12月1日,OpenAI推出人工智能聊天原型ChatGPT,再次赚足眼球,为AI界引发了类似AIGC让艺术家失业的大讨论。
据报道,ChatGPT在开放试用的短短几天,就吸引了超过 100 万互联网注册用户。并且社交网络流传出各种询问或调戏ChatGPT的有趣对话。甚至有人将ChatGPT比喻为“搜索引擎+社交软件”的结合体,能够在实时互动的过程中获得问题的合理答案。
ChatGPT 是一种专注于对话生成的语言模型。它能够根据用户的文本输入,产生相应的智能回答。这个回答可以是简短的词语,也可以是长篇大论。其中GPT是Generative Pre-trained Transformer(生成型预训练变换模型)的缩写。
通过学习大量现成文本和对话集合(例如Wiki),ChatGPT能够像人类那样即时对话,流畅的回答各种问题。(当然回答速度比人还是慢一些)无论是英文还是其他语言(例如中文、韩语等),从回答历史问题,到写故事,甚至是撰写商业计划书和行业分析,“几乎”无所不能。甚至有程序员贴出了ChatGPT进行程序修改的对话。
ChatGPT也可以与其他AIGC模型联合使用,获得更加炫酷实用的功能。例如上面通过对话生成客厅设计图。这极大加强了AI应用与客户对话的能力,使我们看到了AI大规模落地的曙光。
1,ChatGPT的传承与特点
1.1 OpenAI家族
我们首先了解下OpenAI是哪路大神。
OpenAI总部位于旧金山,由特斯拉的马斯克、Sam Altman及其他投资者在2015年共同创立,目标是开发造福全人类的AI技术。而马斯克则在2018年时因公司发展方向分歧而离开。
此前,OpenAI 因推出 GPT系列自然语言处理模型而闻名。从2018年起,OpenAI就开始发布生成式预训练语言模型GPT(Generative Pre-trained Transformer),可用于生成文章、代码、机器翻译、问答等各类内容。
每一代GPT模型的参数量都爆炸式增长,堪称“越大越好”。2019年2月发布的GPT-2参数量为15亿,而2020年5月的GPT-3,参数量达到了1750亿。
GPT家族主要模型对比
1.2 ChatGPT的主要特点
ChatGPT 是基于GPT-3.5(Generative Pre-trained Transformer 3.5)架构开发的对话AI模型,是InstructGPT 的兄弟模型。ChatGPT很可能是OpenAI 在GPT-4 正式推出之前的演练,或用于收集大量对话数据。
ChatGPT的主要特点
OpenAI使用 RLHF(Reinforcement Learning from Human Feedbac,人类反馈强化学习) 技术对 ChatGPT 进行了训练,且加入了更多人工监督进行微调。
此外,ChatGPT 还具有以下特征:
1)可以主动承认自身错误。若用户指出其错误,模型会听取意见并优化答案。
2)ChatGPT 可以质疑不正确的问题。例如被询问 “哥伦布 2015 年来到美国的情景” 的问题时,机器人会说明哥伦布不属于这一时代并调整输出结果。
3)ChatGPT 可以承认自身的无知,承认对专业技术的不了解。
4)支持连续多轮对话。
与大家在生活中用到的各类智能音箱和“人工智障“不同,ChatGPT在对话过程中会记忆先前使用者的对话讯息,即上下文理解,以回答某些假设性的问题。ChatGPT可实现连续对话,极大的提升了对话交互模式下的用户体验。
对于准确翻译来说(尤其是中文与人名音译),ChatGPT离完美还有一段距离,不过在文字流畅度以及辨别特定人名来说,与其他网络翻译工具相近。
由于 ChatGPT是一个大型语言模型,目前还并不具备网络搜索功能,因此它只能基于2021年所拥有的数据集进行回答。例如它不知道2022年世界杯的情况,也不会像苹果的Siri那样回答今天天气如何、或帮你搜索信息。如果ChatGPT能上网自己寻找学习语料和搜索知识,估计又会有更大的突破。
即便学习的知识有限,ChatGPT 还是能回答脑洞大开的人类的许多奇葩问题。为了避免ChatGPT染上恶习, ChatGPT 通过算法屏蔽,减少有害和欺骗性的训练输入。,查询通过适度 API 进行过滤,并驳回潜在的种族主义或性别歧视提示。
2,ChatGPT/GPT的原理
2.1 NLP
NLP/NLU领域已知局限包括对重复文本、对高度专业的主题的误解,以及对上下文短语的误解。
对于人类或AI,通常需接受多年的训练才能正常对话。NLP类模型不仅要理解单词的含义,还要理解如何造句和给出上下文有意义的回答,甚至使用合适的俚语和专业词汇。
NLP技术的应用领域
本质上,作为ChatGPT基础的GPT-3或GPT-3.5 是一个超大的统计语言模型或顺序文本预测模型。
2.2 GPT v.s.BERT
与BERT模型类似,ChatGPT或GPT-3.5都是根据输入语句,根据语言/语料概率来自动生成回答的每一个字(词语)。从数学或从机器学习的角度来看,语言模型是对词语序列的概率相关性分布的建模,即利用已经说过的语句(语句可以视为数学中的向量)作为输入条件,预测下一个时刻不同语句甚至语言集合出现的概率分布。
ChatGPT 使用来自人类反馈的强化学习进行训练,这种方法通过人类干预来增强机器学习以获得更好的效果。在训练过程中,人类训练者扮演着用户和人工智能助手的角色,并通过近端策略优化算法进行微调。
由于ChatGPT更强的性能和海量参数,它包含了更多的主题的数据,能够处理更多小众主题。ChatGPT现在可以进一步处理回答问题、撰写文章、文本摘要、语言翻译和生成计算机代码等任务。
BERT与GPT的技术架构(图中En为输入的每个字,Tn为输出回答的每个字)
3,ChatGPT的技术架构
3.1 GPT家族的演进
说到ChatGPT,就不得不提到GPT家族。
ChatGPT之前有几个知名的兄弟,包括GPT-1、GPT-2和GPT-3。这几个兄弟一个比一个个头大,ChatGPT与GPT-3更为相近。
ChatGPT与GPT 1-3的技术对比
GPT家族与BERT模型都是知名的NLP模型,都基于Transformer技术。GPT-1只有12个Transformer层,而到了GPT-3,则增加到96层。
3.2 人类反馈强化学习
InstructGPT/GPT3.5(ChatGPT的前身)与GPT-3的主要区别在于,新加入了被称为RLHF(Reinforcement Learning from Human Feedback,人类反馈强化学习)。这一训练范式增强了人类对模型输出结果的调节,并且对结果进行了更具理解性的排序。
在InstructGPT中,以下是“goodness of sentences”的评价标准。
真实性:是虚假信息还是误导性信息?
无害性:它是否对人或环境造成身体或精神上的伤害?
有用性:它是否解决了用户的任务?
3.3 TAMER框架
这里不得不提到TAMER(Training an Agent Manually via Evaluative Reinforcement,评估式强化人工训练代理)这个框架。该框架将人类标记者引入到Agents的学习循环中,可以通过人类向Agents提供奖励反馈(即指导Agents进行训练),从而快速达到训练任务目标。
TAMER框架论文
引入人类标记者的主要目的是加快训练速度。尽管强化学习技术在很多领域有突出表现,但是仍然存在着许多不足,例如训练收敛速度慢,训练成本高等特点。特别是现实世界中,许多任务的探索成本或数据获取成本很高。如何加快训练效率,是如今强化学习任务待解决的重要问题之一。
而TAMER则可以将人类标记者的知识,以奖励信反馈的形式训练Agent,加快其快速收敛。TAMER不需要标记者具有专业知识或编程技术,语料成本更低。通过TAMER+RL(强化学习),借助人类标记者的反馈,能够增强从马尔可夫决策过程 (MDP) 奖励进行强化学习 (RL) 的过程。
TAMER架构在强化学习中的应用
具体实现上,人类标记者扮演对话的用户和人工智能助手,提供对话样本,让模型生成一些回复,然后标记者会对回复选项打分排名,将更好的结果反馈回模型中,Agents同时从两种反馈模式中学习——人类强化和马尔可夫决策过程奖励作为一个整合的系统,通过奖励策略对模型进行微调并持续迭代。
在此基础上,ChatGPT 可以比 GPT-3 更好的理解和完成人类语言或指令,模仿人类,提供连贯的有逻辑的文本信息的能力。
3.4 ChatGPT的训练
ChatGPT的训练过程分为以下三个阶段:
第一阶段:训练监督策略模型
GPT 3.5本身很难理解人类不同类型指令中蕴含的不同意图,也很难判断生成内容是否是高质量的结果。为了让GPT 3.5初步具备理解指令的意图,首先会在数据集中随机抽取问题,由人类标注人员,给出高质量答案,然后用这些人工标注好的数据来微调 GPT-3.5模型(获得SFT模型, Supervised Fine-Tuning)。
此时的SFT模型在遵循指令/对话方面已经优于 GPT-3,但不一定符合人类偏好。
ChatGPT模型的训练过程
第二阶段:训练奖励模型(Reward Mode,RM)
这个阶段的主要是通过人工标注训练数据(约33K个数据),来训练回报模型。在数据集中随机抽取问题,使用第一阶段生成的模型,对于每个问题,生成多个不同的回答。人类标注者对这些结果综合考虑给出排名顺序。这一过程类似于教练或老师辅导。
接下来,使用这个排序结果数据来训练奖励模型。对多个排序结果,两两组合,形成多个训练数据对。RM模型接受一个输入,给出评价回答质量的分数。这样,对于一对训练数据,调节参数使得高质量回答的打分比低质量的打分要高。
第三阶段:采用PPO(Proximal Policy Optimization,近端策略优化)强化学习来优化策略。
PPO的核心思路在于将Policy Gradient中On-policy的训练过程转化为Off-policy,即将在线学习转化为离线学习,这个转化过程被称之为Importance Sampling。这一阶段利用第二阶段训练好的奖励模型,靠奖励打分来更新预训练模型参数。在数据集中随机抽取问题,使用PPO模型生成回答,并用上一阶段训练好的RM模型给出质量分数。把回报分数依次传递,由此产生策略梯度,通过强化学习的方式以更新PPO模型参数。
如果我们不断重复第二和第三阶段,通过迭代,会训练出更高质量的ChatGPT模型。
4,ChatGPT的局限
只要用户输入问题,ChatGPT 就能给予回答,是否意味着我们不用再拿关键词去喂 Google或百度,就能立即获得想要的答案呢?
尽管ChatGPT表现出出色的上下文对话能力甚至编程能力,完成了大众对人机对话机器人(ChatBot)从“人工智障”到“有趣”的印象改观,我们也要看到,ChatGPT技术仍然有一些局限性,还在不断的进步。
1)ChatGPT在其未经大量语料训练的领域缺乏“人类常识”和引申能力,甚至会一本正经的“胡说八道”。ChatGPT在很多领域可以“创造答案”,但当用户寻求正确答案时,ChatGPT也有可能给出有误导的回答。例如让ChatGPT做一道小学应用题,尽管它可以写出一长串计算过程,但最后答案却是错误的。
2)ChatGPT无法处理复杂冗长或者特别专业的语言结构。对于来自金融、自然科学或医学等非常专业领域的问题,如果没有进行足够的语料“喂食”,ChatGPT可能无法生成适当的回答。
3)ChatGPT需要非常大量的算力(芯片)来支持其训练和部署。抛开需要大量语料数据训练模型不说,在目前,ChatGPT在应用时仍然需要大算力的服务器支持,而这些服务器的成本是普通用户无法承受的,即便数十亿个参数的模型也需要惊人数量的计算资源才能运行和训练。,如果面向真实搜索引擎的数以亿记的用户请求,如采取目前通行的免费策略,任何企业都难以承受这一成本。因此对于普通大众来说,还需等待更轻量型的模型或更高性价比的算力平台。
4)ChatGPT还没法在线的把新知识纳入其中,而出现一些新知识就去重新预训练GPT模型也是不现实的,无论是训练时间或训练成本,都是普通训练者难以接受的。如果对于新知识采取在线训练的模式,看上去可行且语料成本相对较低,但是很容易由于新数据的引入而导致对原有知识的灾难性遗忘的问题。
5)ChatGPT仍然是黑盒模型。目前还未能对ChatGPT的内在算法逻辑进行分解,因此并不能保证ChatGPT不会产生攻击甚至伤害用户的表述。
当然,瑕不掩瑜,有工程师贴出了要求ChatGPT写verilog代码(芯片设计代码)的对话。可以看出ChatGPT水平已经超出一些verilog初学者了。
5,ChatGPT的未来改进方向
5.1 减少人类反馈的RLAIF
2020年底,OpenAI前研究副总裁Dario Amodei带着10名员工创办了一个人工智能公司Anthropic。Anthropic 的创始团队成员,大多为 OpenAI 的早期及核心员工,参与过OpenAI的GPT-3、多模态神经元、人类偏好的强化学习等。
2022年12月,Anthropic再次发表论文《Constitutional AI: Harmlessness from AI Feedback》介绍人工智能模型Claude。(arxiv.org/pdf/2212.0807)
CAI模型训练过程
Claude 和 ChatGPT 都依赖于强化学习(RL)来训练偏好(preference)模型。CAI(Constitutional AI)也是建立在RLHF的基础之上,不同之处在于,CAI的排序过程使用模型(而非人类)对所有生成的输出结果提供一个初始排序结果。
CAI用人工智能反馈来代替人类对表达无害性的偏好,即RLAIF,人工智能根据一套constitution原则来评价回复内容。
5.2 补足数理短板
ChatGPT虽然对话能力强,但是在数理计算对话中容易出现一本正经胡说八道的情况。
计算机学家Stephen Wolfram 为这一问题提出了解决方案。Stephen Wolfram 创造了的 Wolfram 语言和计算知识搜索引擎 Wolfram | Alpha,其后台通过Mathematica实现。
ChatGPT与Wolfram | Alpha结合处理梳理问题
在这一结合体系中,ChatGPT 可以像人类使用 Wolfram|Alpha 一样,与 Wolfram|Alpha “对话”,Wolfram|Alpha 则会用其符号翻译能力将从 ChatGPT 获得的自然语言表达“翻译”为对应的符号化计算语言。在过去,学术界在 ChatGPT 使用的这类 “统计方法” 和 Wolfram|Alpha 的 “符号方法” 上一直存在路线分歧。但如今 ChatGPT 和 Wolfram|Alpha 的互补,给NLP领域提供了更上一层楼的可能。
ChatGPT 不必生成这样的代码,只需生成常规自然语言,然后使用 Wolfram|Alpha 翻译成精确的 Wolfram Language,再由底层的Mathematica进行计算。
5.3 ChatGPT的小型化
虽然ChatGPT很强大,但其模型大小和使用成本也让很多人望而却步。
有三类模型压缩(model compression)可以降低模型的大小和成本。
第一种方法是量化(quantization),即降低单个权重的数值表示的精度。比如Tansformer从FP32降到INT8对其精度影响不大。
第二种模型压缩方法是剪枝(pruning),即删除网络元素,包括从单个权重(非结构化剪枝)到更高粒度的组件如权重矩阵的通道。这种方法在视觉和较小规模的语言模型中有效。
第三种模型压缩方法是稀疏化。例如奥地利科学技术研究所 (ISTA)提出的SparseGPT (arxiv.org/pdf/2301.0077)可以将 GPT 系列模型单次剪枝到 50% 的稀疏性,而无需任何重新训练。对 GPT-175B 模型,只需要使用单个 GPU 在几个小时内就能实现这种剪枝。
SparseGPT 压缩流程
6 ChatGPT的产业未来与投资机会
6.1 AIGC
说到ChaGPT不得不提AIGC。
AIGC即利用人工智能技术来生成内容。与此前Web1.0、Web2.0时代的UGC(用户生产内容)和PGC(专业生产内容)相比,代表人工智能构思内容的AIGC,是新一轮内容生产方式变革,而且AIGC内容在Web3.0时代也将出现指数级增长。
ChatGPT 模型的出现对于文字/语音模态的 AIGC 应用具有重要意义,会对AI产业上下游产生重大影响。
6.2 受益场景
从下游相关受益应用来看,包括但不限于无代码编程、小说生成、对话类搜索引擎、语音陪伴、语音工作助手、对话虚拟人、人工智能客服、机器翻译、芯片设计等。从上游增加需求来看,包括算力芯片、数据标注、自然语言处理(NLP)等。
大模型呈爆发态势(更多的参数/更大的算力芯片需求)
随着算法技术和算力技术的不断进步,ChatGPT也会进一步走向更先进功能更强的版本,在越来越多的领域进行应用,为人类生成更多更美好的对话和内容。
最后,作者问存算一体技术在ChatGPT领域的地位(作者本人目前在重点推进存算一体芯片的产品落地),ChatGPT想了想,大胆的预言存算一体技术将在ChatGPT芯片中占据主导地位。(深得我心)
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!