狂飙的大模型-2023年度总结|社区征文## 大模型多年以后,我一定会记得我第一次使用 ChatGPT 那种震撼的感觉。起初我只是以为使用了一个有意思的工具,却不知迎来了 AI 浪潮的大时代。他打乱了很多顶级互联网公司的战略发展的节奏,也打乱了我个人发展发向。2022年,同样是在火山引擎开发者社区,我总结了我的2022 ,并定下了2023年几个探索的技术方向。(详情可点击:[我的 2022 云原生修炼之路|社区征文](https://developer.volcengine.com/articles/71798923724555551...
ChatGLM-130B API调用指南ChatGLM-130B 参考了 ChatGPT 的设计思路,在千亿基座模型 GLM-130B 中注入了代码预训练,通过有监督微调(Supervised Fine-Tuning)等技术实现人类意图对齐。ChatGLM 当前版本模型的能力提升主要来源于独特的千亿基座模型 GLM-130B。它是不同于 BERT、GPT-3 以及 T5 的架构,是一个包含多目标函数的自回归预训练模型。本文详细介绍了 ChatGLM-130B 的SDK及API使用方法。 API HostHost:maas-api.ml-platform-cn-beijing.volces.comReg...
大模型时代,企业如何榨干每一块 GPU?以 ChatGPT 为代表的 AIGC 浪潮正在重塑数字内容的生产方式和消费模式,相应的,各行业高算力业务场景对 AI 算力的需求也水涨船高。在有限算力的情况下,通过 GPU 算力上云,驱动云原生 + AI 实现算力资源的快速弹性和高效使用,已经成为 AI 技术落地的新基石。当前,在异构计算场景下,云原生在资源灵活分配方面已经具备标准化能力,然而,这一能力并不能直接在 GPU 资源上复用。在保障性能和安全的前提下,如何进一步提高 GPU 的利用率...
CVer从0入门NLP——GPT是如何一步步诞生的|社区征文# CVer从0入门NLP——GPT是如何一步步诞生的## 写在前面> Hello,大家好,我是小苏👦🏽👦🏽👦🏽>之前的博客中,我都为大家介绍的是计算机视觉的知识,随着ChatGPT的走红,越来越多的目光聚焦到NLP领域,那么今天准备和大家唠唠NLP的内容。其实呢,对于NLP,我也是初学者,之前只是有一个大概的了解,所以本系列会以一个初学者的视角带大家走进NLP的世界,如果博客中有解释不到位的地方,希望各位大佬指正。🍭🍭🍭当然了,NLP的内容很...
ChatGLM-6B API 调用指南ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,ChatGLM-6B 已经能生成相当符合人类偏好的回答。本文详细介绍了 ChatGLM-6B 的SDK及API使用方法。 API HostHost:maas-api.ml-platform-cn-beijing.v...
图谱构建的基石: 实体关系抽取总结与实践|社区征文# 引言作为一个专注于NLP的算法技术团队,我们一直致力于知识智能在各业务场景的价值落地,随着NLP技术的逐渐演变:从词表为王到词向量,再到以BERT为代表的预训练模型,再到最近横空出世的ChatGPT,让“技术赋能业务”逐渐成为了现实。在一些常见的NLP任务中,有一类任务扮演了举足轻重的作用,也是当下的研究热点,这类任务就是:实体关系抽取,目的是从自然语言文本中识别并判定实体对之间存在的特定关系,为智能检索、语义分析等提供基...
基于云数据库 PostgreSQL 版构建智能交互式问答系统随着 ChatGPT 等生成式人工智能(AI Generated Content,简称 AIGC)的出现,人们看到了一种更智能的实现方式,通过问答的方式,多方面提高知识获取的效率、准确性和用户体验。 然而,对于特定垂直领域的企业来说,生成式人工智能的局限性也显而易见,例如大模型训练周期长、缺乏对某一领域专业知识等,导致常常出现 AI“幻觉”问题(即 AI 的“一本正经的胡说八道”)。为了解决这一问题,一般会采用以下两种方式进行: Fine Tune 方法,“驯服...