大模型日志week02
day01现有的一些微调方法主流的方法包括2019年的Adapter Tuning,2021年微软提出的 LORA,斯坦福提出的Prefix-Tuning,谷歌提出的Prompt Tuning,2022年清华提出的P-tuning v2。
LoRa的效果会好于其它几种方法,其它方法存在一些问题:
Adapter Tuning增加了模型层数,引入了额外的推理延迟
Prefix-Tuning难于训练,且预留给Prompt的序列挤占了下游任务的输入序列空间,影响模型性能
P-tuning v2很容易导致旧知识遗忘,微调之后的模型,在之前的问题上表现明显变差。
假设模型在任务适配过程中权重的改变量是低秩的,LoRA 允许我们通过优化适应过程中密集层变化的秩分解矩阵,来间接训练神经网络中的一些密集层,同时保持预先训练的权重不变。
LoRA微调LoRA(Low-Rank Adaptation)微调冻结了预训练的模型权重,并将可训练的秩分解矩阵注入到 Transformer 架构的每一层,极大地减少了下游任务的可训练参数的数量。下图为LoRA的示意图,左边蓝色部分是该方法会冻结的原始权重,右边是 ...
后端日志-week06
day01MySQL查询语句查询结果去重使用Distinct和group by都能够实现去重的效果。
distinct只能放在查询字段的最前面,不能放在查询字段的中间或者后面。distinct 对后面所有的字段均起作用,即 去重是查询的所有字段完全重复的数据,而不是只对 distinct 后面连接的单个字段重复的数据。因此,Distinct查询多个字段只对一个字段去重是无法实现的。SELECT DISTINCT university from user_profile;
group by一般与聚类函数使用(如count()/sum()等),也可单独使用。group by可以使查询结果按一个或者多个字段进行分组(查询的字段可以不等于group by的字段),SELECT university from user_profile GROUP BY university;
查询结果限制返回行数
LIMIT n:从第0+1(m=0)条开始,取n条数据,是LIMIT 0,n的缩写
123SELECT device_idFROM user_profileLIMIT 2
...
后端日志-week05
day01HttpServlet中的service方法12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970protected void service(HttpServletRequest req, HttpServletResponse resp) throws ServletException, IOException { //获取http request的method参数,其实就是html的form标签 //中method属性对应的字符串 String method = req.getMethod(); long errMsg; //判断请求方式 if(method.equals("GET")) { //获取最后被修改时间 ...
大模型日志week02
day04LoRA微调大模型微调的步骤:在选定相关数据集和预训练模型的基础上,通过设置合适的超参数并对模型进行必要的调整,使用特定任务的数据对模型进行训练以优化其性能。
微调的四个步骤
数据处理:选择与任务相关的数据集,对数据集进行预处理。
模型加载:将预训练的大模型导入。
设置模型微调参数:加载预训练的大模型,使用新的任务数据对其进行微调,包括设定学习率,训练轮次,批次大小等。
大模型微调流程-RLHF(Reinforcement Learning from Human Feedback)RLHF(Reinforcement Learning from Human Feedback):一种利用人类反馈作为奖励信号来训练强化学习模型的方法,旨在提升模型生成文本等内容的质量,使其更符合人类偏好。强化学习(Reinforcement Learning)结合人类反馈(Human Feedback)来微调大语言模型(Large Language Models)的一般过程:
1. 使用监督数据微调语言模型这一步与传统的fine-tuning类似,即使用标注过的数据来调整预训练模型的参数,使其 ...
运营平台后端代码详解
运营平台后端
tips :server.servlet.context-path用于指定Web应用程序的上下文路径,例如,如果你设置server.servlet.context-path=/myapp,那么当用户访问http://localhost:8080/myapp时,Boot应用程序会处理这个请求。tips : 写dev/local/prod这类配置的时候,可以把你的nacos相关配置写到最上面,后面直接变量名引用就行,例如:
12345678large: model: nacos: server-addr: 192.168.1.46:8848 namespace: large-model-dev group: LARGE_MODEL_GROUP# 引用方式 ${large.model.nacos.server-addr}
tips : META-INF/spring.factories文件用于自动配置和扩展Spring应用程序。这个文件通过Spring的工厂加载机制,可以自动 ...
后端日志-week3
day01在IDEA中Debug断点处右键可以设置条件,当满足条件时,才会停止到当行。
玩转Stream流
Stream将要处理的元素集合看作一种流,在流的过程中,借助Stream API对流中的元素进行操作,比如:筛选、排序、聚合等。
Stream对流的两种操作
中间操作,每次返回一个新的流,可以有多个。(筛选filter、映射map、排序sorted、去重组合skip—limit)
终端操作,每个流只能进行一次终端操作,终端操作结束后流无法再次使用。终端操作会产生一个新的集合或值。(遍历foreach、匹配find–match、规约reduce、聚合max–min–count、收集collect)
Stream特性
stream不存储数据,而是按照特定的规则对数据进行计算,一般会输出结果。
stream不会改变数据源,通常情况下会产生一个新的集合或一个值。
stream具有延迟执行特性,只有调用终端操作时,中间操作才会执行。
Stream与传统遍历对比几乎所有的集合(如 Collection 接口或 Map 接口等)都支持直接或间接的遍历操作。而当我们需要对集合中的元素进行操 ...
大模型日志week02
day01
了解当下大语言模型
大模型架构1. MoE(混合专家模型):MOE是把大问题先做拆分,再逐个解决小问题,再汇总结论。模型规模是提升模型性能的关键因素之一,在有限的计算资源下,用更少的训练步数训练一个更大的模型,往往比用更多的步数训练一个较小的模型效果更佳。MoE正是基于上述的理念,它由多个专业化的子模型(即“专家”)组合而成,专家的混合不会节省任何计算,因为前向传播仍然需要评估每个专家,而反向传播也必须接触每个专家,但是我们可以选择由哪些专家进行回答并规范化,这代表在前向和反向传播时,只需要使用非0的专家。
2. 基于检索的模型:检索增强生成的工作流程
检索: 首先,我们需要进行的是检索过程。在这个阶段,我们利用用户的查询内容,从外部知识源获取相关信息。具体来说,就是将用户的查询通过嵌入模型转化为向量,这样就可以与向量数据库中的其他上下文信息进行比对。通过这种相似性搜索,我们可以找到向量数据库中最匹配的前k个数据。
增强: 接下来,我们进入增强阶段。在这个阶段,我们将用户的查询和检索到的额外信息一起嵌入到一个预设的提示模板中。这个过程的目的是为了提供更丰富、更具上下文的 ...
后端日志-week3
day04
tips : mysql-connector-java的包版本用高级的就行。telnet ip port 可以测试服务器连通性和端口状态
详解NginxNginx以其高并发连接处理能力,和低资源消耗而闻名,有报告表明能支持高达50,000个并发连接数。
Nginx特点
高并发处理能力:采用异步、事件驱动架构,能够高效处理大量并发连接;
低内存消耗:与其他Web服务器相比,Nginx的内存消耗非常低。
高可靠性和稳定性:即使在高负载情况下,Nginx也能保持稳定运行;
跨平台:支持多种操作系统,包括:Linux、Windows等上。
Nginx功能1. 反向代理Nginx反向代理,接收客户端请求,然后将这些请求转发给后端服务器处理,并将后端服务器的响应返回给客户端。反向代理可以解决跨域问题、Web缓存等问题,还可以隐藏后端服务器的地址。
2. 负载均衡Nginx负载均衡功能强大,可以通过“多种策略”,将客户端请求分发到多个后端服务器,从而提高应用的可用性、和响应速度。
轮询,轮询是默认的负载均衡策略,NGINX按顺序将请求依次分配给每个后端服务器。
权重:通过指定每个服 ...
工作日志
6:30 501 AI中心会议主题:抓紧人工智能,促发新质生产力大模型相关
星辰大模型相关:Agent+生态,赶超3.5,追齐4.0
以星辰大模型为基模:12个行业大模型(政务,教育,旅游导览等)
星辰基础模型:满足红色价值观,比如在钓鱼岛问题的立场坚定。
星辰·慧笔:写作助手,支持文本风格定义。
星辰·语音大模型:多方言语音识别(293种方言),语音生成真人化。
星辰·慧记:生成会议纪要,区别发言人,进行总结,拾音器收集会议语音。
星辰·多模态大模型:文生图,文字图片风格对齐。单图生成解说视频。
星辰基层治理大模型:融入民法典,法律知识,进行法律调解。
星辰教学大模型:帮助老师进行阅卷,生成教案等。
小模型相关CV模型相关,人脸识别,小目标检测,行人行为检测,卫生检测等。
AI硬件视联智盒,大模型一体机,TeleSearch一体机。
应用:酒店陌生人识别系统等。
扶摇平台为事业部提供什么:
调用CV模型,算力方面目前不能提供。
智能客服会议更多问法,人工标记问题。保存提问记录。已识别未回复的列表。质检问题的列表。
文化云项目
url视频链接不对。
解决:url怎 ...
后端日志-week2
day01Nacos的原理和使用四大功能:
服务发现和服务健康监测:(使服务更容易注册,并通过DNS或HTTP接口发现其他服务,还提供服务的实时健康检查,以防止向不健康的主机或服务实例发送请求。)
动态配置服务:(即Nacos即是服务发现中心,又是配置中心,当然配置写在服务本地也可,写在Nacos里可以利用公用配置简化服务配置过程)
动态DNS服务:动态 DNS 服务支持权重路由,更容易地实现中间层负载均衡、更灵活的路由策略、流量控制以及数据中心内网的简单DNS解析服务。
服务及其元数据管理:管理数据中心的所有服务及元数据,包括管理服务的描述、生命周期、服务的静态依赖分析、服务的健康状态、服务的流量管理、路由及安全策略、服务的 SLA 以及最首要的 metrics 统计数据。
服务发现过程:
在每个服务启动时会向服务发现中心上报自己的网络位置。在服务发现中心内部会形成一个服务注册表,服务注册表是服务发现的核心部分,是包含所有服务实例的网络地址的数据库。
服务发现客户端(即每个服务本身)会定期从服务发现中心同步服务注册表 ,并缓存在客户端。
当需要对某服务进行请求时,服务实例通 ...