排序算法分析
类别
排序方法
时间复杂度(平均情况)
时间复杂度(最坏情况)
空间复杂度(储存空间)
稳定性
插入排序
直接插入排序
O(n^2)
O(n^2)
O(1)
是
Shell排序
O(nlogn)至O(n^2)
O(n^s) 其中s是常数
O(1)
否
选择排序
直接选择排序
O(n^2)
O(n^2)
O(1)
否
堆排序
O(nlogn)
O(nlogn)
O(1) (不包括堆的存储)
否
交换排序
冒泡排序
O(n^2)
O(n^2)
O(1)
是
快速排序
O(nlogn)
O(n^2) (未优化时)
O(logn)至O(n) (递归栈)
否
归并排序
归并排序
O(nlogn)
O(nlogn)
O(n)
是
基数排序
基数排序(LSD)
O(nk) 其中k是数字位数
O(nk) 其中k是数字位数
O(n+k)
是
直接插入排序(Straight Insertion Sort)直接插入排序是一种简单直观的排序算法。它的工作原理是通过构建有序序列,对于未排序数据,在已排序序列中从后向前扫描,找到相应位置并插入。插入排序在实现上,通 ...
The sentence may resonate you
机器人不哭如果你答应我一个请求,我愿意跟着您走你想要什么,山米?我……我想哭我吩咐维修机器,载入医学数据库中有关眼泪、泪腺的内容,然后关掉山米,开始拆卸改造。两个小时之后,山米有了排泪管,还给他提供了溶液,每只眼睛里可以流出六百滴眼泪。这种事你听说过吗,机器人想哭?三十年时间,徒劳地试图成为一个普通人。或者五百年时间徒劳的想哭出来————我不知道哪种情形更凄惨,我不由得心里冒火:一般情况下我甚至不会替人难过,更别说机器了。但和人类无比宏大的野心相比,他的要求是多么简单、多么渺小啊。我们想跨过大海,于是跨过了。我们想飞,于是飞起来了。我们想奔向群星,于是我们来到了星际。可山米相应的一切,只是为他死去的艾米丽小姐痛苦一场。他等待了五百年,同意再一次出售自己,为的只是几滴泪水。这个交易真是太不值了改造好了?好了,哭吧,山米…尽管把你的眼珠子哭出来好了。我…我……我哭不出来。我感受到痛苦,但我哭不出来。你肯定?我肯定我错了,不该产生高于自己身份的想法和希望。艾米莉小姐过去说,眼泪来自心灵和灵魂,但我是个机器人,我没有心也没有灵魂,所以我哭不出来。即使有了你给我的排泪管也不行我很抱歉,浪费了您的 ...
数据结构基础
引言在数据结构的学习中,我们需要一定的基础和思维,在这里做一定的总结,并分享一下自己的经验
数组数组的操作在数据结构中最为常见,也最需要理解和记忆
构建一个数组1234# 一维数组a = [0]*n # 二维数组b = [[0]*n for _ in range(n)]
12345678910111213a = [1,2,3]n = len(a)ans = []# 正序for i in range(n): for j in range(1,n-i+1): ans.append(a[i:i+j])# 倒序for i in range (n,0,-1): for j in range (n-i+1): ans.append(a[i-1:i+j])return ans
全排列1234567891011121314151617def permute(nums): def backtrack(first=0): # 所有数都填完了 if first == n: output. ...
数据
Table 5. Single-modal experimental results(3D@0.5 0.25 0.25)
Baseline
Data
Car
Pedestrain
Cyclist
3D@0.5
3D@0.25
3D@0.25
Easy
Mod.
Hard
Easy
Mod.
Hard
Easy
Mod.
Hard
RDIou
LiDAR
63.43
40.80
32.92
33.71
29.35
28.96
38.26
35.62
35.02
...
数据_arbe
Table 5. Single-modal experimental results(3D@0.5 0.25 0.25)
Baseline
Data
Car
Pedestrain
Cyclist
3D@0.5
3D@0.25
3D@0.25
Easy
Mod.
Hard
Easy
Mod.
Hard
Easy
Mod.
Hard
RDIou
Arbe
51.49
26.74
17.83
0.00
0.00
0.00
0.51
0.37
0.35
...
LangGPT结构化提示词编写实践
作业基础任务 (完成此任务即完成闯关)
背景问题:近期相关研究发现,LLM在对比浮点数字时表现不佳,经验证,internlm2-chat-1.8b (internlm2-chat-7b)也存在这一问题,例如认为13.8<13.11。
任务要求:利用LangGPT优化提示词,使LLM输出正确结果。完成一次并提交截图即可
123456789101112131415161718# Role: 浮点数比较 ## Profile - author: LangGPT - version: 1.0 - language: 中文 - description: 本提示词旨在帮助AI准确比较两个浮点数的大小,并输出明确的判断结果。 ## Skills 1. 精确解析浮点数。 2. 按照数学规则进行大小比较。## 提示词 请比较以下两个浮点数的大小,并给出明确的判断结果: 第一个数是:{用户输入的第一个浮点数} 第二个数是:{用户输入的第二个浮点数} 预期输出:“{第一个数} 大于 {第二 ...
XTuner微调个人小助手认知
作业基础任务
使用 XTuner 微调 InternLM2-Chat-1.8B 实现自己的小助手认知,如下图所示(图中的伍鲜同志需替换成自己的昵称),记录复现过程并截图。
进阶任务
将自我认知的模型上传到 OpenXLab,并将应用部署到 OpenXLab下面内容为书生浦语的相关教程,你也可以直接访问 InternLM
XTuner微调个人小助手认知
在本节中,将一步步带领大家体验如何使用 XTuner 完成个人小助手的微调!
整个过程大概需要90分钟我们就可以得到一个自己的小助手。
先看看微调效果:
微调前微调后
输入请介绍一下你自己请介绍一下你自己
输出
详细闯关任务请访问闯关任务,提交作业助教老师批改后将获得 100 算力点奖励!!!
1 微调前置基础本节主要重点是带领大家实现个人小助手微调,如果想了解微调相关的基本概念,可以访问XTuner微调前置基础。
2 准备工作环境安装:我们想要用简单易上手的微调工具包 XTuner 来对模型进行微调的话,第一步是安装 XTuner !安装基础的工具是一切的前提,只有安装了 XTuner 我们才能够去执行 ...
llamaindex+Internlm2 RAG实践
作业基础任务
任务要求:基于 LlamaIndex 构建自己的 RAG 知识库,寻找一个问题 A 在使用 LlamaIndex 之前InternLM2-Chat-1.8B模型不会回答,借助 LlamaIndex 后 InternLM2-Chat-1.8B 模型具备回答 A 的能力,截图保存。修改查询为1response = query_engine.query("怎么解决算法结构的前缀和问题?")
在data文件下添加文件
数据结构与算法————一次搞定前缀和.md
下面内容为书生浦语的相关教程,你也可以直接访问 InternLM
llamaindex+Internlm2 RAG实践本文将分为以下几个部分来介绍,如何使用 LlamaIndex 来部署 InternLM2 1.8B(以 InternStudio 的环境为例)
前置知识
环境、模型准备
LlamaIndex HuggingFaceLLM
LlamaIndex RAG
1. 前置知识正式介绍检索增强生成(Retrieval Augmented Generation,RAG)技术以前,大家不妨想想为什 ...
书生浦语大模型的全链路开源体系
简介介绍了书生浦语大模型的全链路开源体系,并详细介绍了其发展历程和特点。大模型已成为通用人工智能的重要途径,能够解决多种任务和多种模态。书生葡语大模型具有超长上下文能力,综合性能得到全面提升,能够实现结构化创作和可靠的数据分析。同时,模型还强化了内生计算能力和代码解释器,在多个能力维度上都取得了不错的评测结果。通用大模型成为人工智能发展趋势
书生浦语大模型开源历程书生浦语大模型2.0提供不同尺寸和类型的模型,支持多语言和多模态任务
internLM模型在各种能力评测中的表现模型在综合性能方面达到同量级的开源模型领先水平
从模型选型到应用的整个流程,以及各个环节需要做的事情,并介绍了全链条工具体系和开源数据集。模型选型全链条工具体系开源,包括数据、预训练、微调、部署、评测、应用等环节
8G 显存玩转书生大模型 Demo
今天来学习一下,如何部署大模型
关卡任务本关任务主要包括:
InternLM2-Chat-1.8B 模型的部署(基础任务)
InternLM-XComposer2-VL-1.8B 模型的部署(进阶任务)
InternVL2-2B 模型的部署(进阶任务
环境配置我们首先来为 Demo 创建一个可用的环境。
12345678910# 创建环境conda create -n demo python=3.10 -y# 激活环境conda activate demo# 安装 torchconda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia -y# 安装其他依赖pip install transformers==4.34 pip install sentencepiece==0.1.99pip install einops==0.8.0
Cli Demo 部署 InternLM2-Chat-1.8B 模型首先,我们创建一个目录,用于存 ...