数据_arbe
Table 5. Single-modal experimental results(3D@0.5 0.25 0.25)
Baseline
Data
Car
Pedestrain
Cyclist
3D@0.5
3D@0.25
3D@0.25
Easy
Mod.
Hard
Easy
Mod.
Hard
Easy
Mod.
Hard
RDIou
Arbe
51.49
26.74
17.83
0.00
0.00
0.00
0.51
0.37
0.35
...
LangGPT结构化提示词编写实践
作业基础任务 (完成此任务即完成闯关)
背景问题:近期相关研究发现,LLM在对比浮点数字时表现不佳,经验证,internlm2-chat-1.8b (internlm2-chat-7b)也存在这一问题,例如认为13.8<13.11。
任务要求:利用LangGPT优化提示词,使LLM输出正确结果。完成一次并提交截图即可
123456789101112131415161718# Role: 浮点数比较 ## Profile - author: LangGPT - version: 1.0 - language: 中文 - description: 本提示词旨在帮助AI准确比较两个浮点数的大小,并输出明确的判断结果。 ## Skills 1. 精确解析浮点数。 2. 按照数学规则进行大小比较。## 提示词 请比较以下两个浮点数的大小,并给出明确的判断结果: 第一个数是:{用户输入的第一个浮点数} 第二个数是:{用户输入的第二个浮点数} 预期输出:“{第一个数} 大于 {第二 ...
XTuner微调个人小助手认知
作业基础任务
使用 XTuner 微调 InternLM2-Chat-1.8B 实现自己的小助手认知,如下图所示(图中的伍鲜同志需替换成自己的昵称),记录复现过程并截图。
进阶任务
将自我认知的模型上传到 OpenXLab,并将应用部署到 OpenXLab下面内容为书生浦语的相关教程,你也可以直接访问 InternLM
XTuner微调个人小助手认知
在本节中,将一步步带领大家体验如何使用 XTuner 完成个人小助手的微调!
整个过程大概需要90分钟我们就可以得到一个自己的小助手。
先看看微调效果:
微调前微调后
输入请介绍一下你自己请介绍一下你自己
输出
详细闯关任务请访问闯关任务,提交作业助教老师批改后将获得 100 算力点奖励!!!
1 微调前置基础本节主要重点是带领大家实现个人小助手微调,如果想了解微调相关的基本概念,可以访问XTuner微调前置基础。
2 准备工作环境安装:我们想要用简单易上手的微调工具包 XTuner 来对模型进行微调的话,第一步是安装 XTuner !安装基础的工具是一切的前提,只有安装了 XTuner 我们才能够去执行 ...
llamaindex+Internlm2 RAG实践
作业基础任务
任务要求:基于 LlamaIndex 构建自己的 RAG 知识库,寻找一个问题 A 在使用 LlamaIndex 之前InternLM2-Chat-1.8B模型不会回答,借助 LlamaIndex 后 InternLM2-Chat-1.8B 模型具备回答 A 的能力,截图保存。修改查询为1response = query_engine.query("怎么解决算法结构的前缀和问题?")
在data文件下添加文件
数据结构与算法————一次搞定前缀和.md
下面内容为书生浦语的相关教程,你也可以直接访问 InternLM
llamaindex+Internlm2 RAG实践本文将分为以下几个部分来介绍,如何使用 LlamaIndex 来部署 InternLM2 1.8B(以 InternStudio 的环境为例)
前置知识
环境、模型准备
LlamaIndex HuggingFaceLLM
LlamaIndex RAG
1. 前置知识正式介绍检索增强生成(Retrieval Augmented Generation,RAG)技术以前,大家不妨想想为什 ...
书生浦语大模型的全链路开源体系
简介介绍了书生浦语大模型的全链路开源体系,并详细介绍了其发展历程和特点。大模型已成为通用人工智能的重要途径,能够解决多种任务和多种模态。书生葡语大模型具有超长上下文能力,综合性能得到全面提升,能够实现结构化创作和可靠的数据分析。同时,模型还强化了内生计算能力和代码解释器,在多个能力维度上都取得了不错的评测结果。通用大模型成为人工智能发展趋势
书生浦语大模型开源历程书生浦语大模型2.0提供不同尺寸和类型的模型,支持多语言和多模态任务
internLM模型在各种能力评测中的表现模型在综合性能方面达到同量级的开源模型领先水平
从模型选型到应用的整个流程,以及各个环节需要做的事情,并介绍了全链条工具体系和开源数据集。模型选型全链条工具体系开源,包括数据、预训练、微调、部署、评测、应用等环节
8G 显存玩转书生大模型 Demo
今天来学习一下,如何部署大模型
关卡任务本关任务主要包括:
InternLM2-Chat-1.8B 模型的部署(基础任务)
InternLM-XComposer2-VL-1.8B 模型的部署(进阶任务)
InternVL2-2B 模型的部署(进阶任务
环境配置我们首先来为 Demo 创建一个可用的环境。
12345678910# 创建环境conda create -n demo python=3.10 -y# 激活环境conda activate demo# 安装 torchconda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia -y# 安装其他依赖pip install transformers==4.34 pip install sentencepiece==0.1.99pip install einops==0.8.0
Cli Demo 部署 InternLM2-Chat-1.8B 模型首先,我们创建一个目录,用于存 ...
数据结构与算法————一次搞定前缀和
本文主要记录我在学习前缀和的一些笔记,便于以后的查阅和记忆
理解程序的连续性
内容来源于【西风带你学算法】链接
文章有两个部分
一维前缀和(本文)
二维前缀和力扣中精选了五道相同思想的题目467.环绕字符串中唯一的子字符串795.区间子数组个数904.水果成篮992.k个不同整数的子数组1109.航班预订统计前四道题都是滑动窗口的子类型,我们知道滑动窗口适合在题目要求连续的情况下使用, 而前缀和也是如此。二者在连续问题中,对于优化时间复杂度有着很重要的意义。 因此如果一道题你可以用暴力解决出来,而且题目恰好有连续的限制, 那么滑动窗口和前缀和等技巧就应该被想到。
前置知识滑动窗口(Sliding Window)滑动窗口协议(Sliding Window Protocol),属于 TCP 协议的一种应用,用于网络数据传输时的流量控制,以避免拥塞的发生。 发送方和接收方分别有一个窗口大小 w1 和 w2。窗口大小可能会根据网络流量的变化而有所不同,但是在更简单的实现中它们是固定的。窗口大小必须大于零才能进行任何操作。
我们算法中的滑动窗口也是类似,只不过包括的情况更加广泛。实际 ...
L0_Python_task
任务一请用Python实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。 TIPS:记得先去掉标点符号,然后把每个单词转换成小写。不需要考虑特别多的标点符号,只需要考虑实例输入中存在的就可以。 Eg: Input: 12345Hello world! This is an example. Word count is fun. Is it fun to count words? Yes, it is fun! Output: 1{'hello': 1,'world!': 1,'this': 1,'is': 3,'an': 1,'example': 1,'word': 1, 'count': 2,'fun': 1,'Is ...
L0_Linux_task
通关任务完成SSH连接与端口映射并运行hello_world.py
选做任务1将Linux基础命令在开发机上完成一遍
3.1 文件管理
在 Linux 中,常见的文件管理操作包括:创建文件:可以使用 touch 命令创建空文件。
创建目录:使用 mkdir 命令。
目录切换:使用cd命令。
显示所在目录:使用pwd命令。
查看文件内容:如使用 cat 直接显示文件全部内容,more 和 less 可以分页查看。
编辑文件:如 vi 或 vim 等编辑器。
复制文件:用 cp 命令。
创建文件链接:用ln命令。
移动文件:通过 mv 命令。
删除文件:使用 rm 命令。
删除目录:rmdir(只能删除空目录)或 rm -r(可删除非空目录)。
查找文件:可以用 find 命令。
查看文件或目录的详细信息:使用ls命令,如使用 ls -l查看目录下文件的详细信息。
处理文件:进行复杂的文件操作,可以使用sed命令。
3.2 进程管理
进程管理命令是进行系统监控和进程管理时的重要工具,常用的进程管理命令有以下几种:
ps:查看正在运行的进程
top:动态显示正在运行的进程
pstree: ...