数据结构初阶——算法复杂度超详解

文章目录

  • 1. 数据结构前言
    • 1. 1 数据结构
    • 1. 2 算法
  • 2. 算法效率
    • 2. 1 复杂度的概念
  • 3. 时间复杂度
    • 3. 1 大O的渐进表示法
    • 3. 2 时间复杂度计算示例
      • 3. 2. 1 示例1
      • 3. 2. 2 示例2
      • 3. 2. 3 示例3
      • 3. 2. 4 示例4
      • 3. 2. 5 示例5
      • 3. 2. 6 示例6
      • 3. 2. 7 示例7
  • 4. 空间复杂度
    • 4. 1 空间复杂度计算示例
      • 4. 1. 1 示例1
      • 4. 1. 2 示例2
  • 5. 常见复杂度对比
  • 6.复杂度算法题——[旋转数组](https://leetcode.cn/problems/rotate-array/description/)
    • 思路1
    • 思路2
    • 思路3


1. 数据结构前言

1. 1 数据结构

数据结构是计算机存储、组织数据的方式,指相互之间存在一种或多种特定关系的数据元素的集合没有一种单一的数据结构对所有用途都有用,所以我们要学各式各样的数据结构,
如:线性表哈希

1. 2 算法

算法就是定义良好的计算过程,它取一个或一组的值为输入,并产生出一个或一组值作为输出
简单来说算法就是一系列的计算步骤,用来将输入数据转化成输出结果

2. 算法效率

如何衡量一个算法的好坏呢?
案例:旋转数组
思路:循环K次将数组所有元素向后移动一位

如果你使用用这个代码:

void rotate(int* nums, int numsSize, int k) {
   
	while (k--)
	{
   
		//循环内部将所有元素向后移动一位
		int end = nums[numsSize - 1];
		for (int i = numsSize - 1; i > 0; i--)
		{
   
			nums[i] = nums[i - 1];
		}
		nums[0] = end;
	}
}

代码点击执行可以通过,然而点击提交却无法通过(超时),那该如何衡量其好与坏呢?
数据结构初阶——算法复杂度超详解_第1张图片

2. 1 复杂度的概念

算法在编写成可执行程序后,运行时需要耗费时间资源和空间(内存)资源。因此衡量一个算法的好
坏,一般是从时间和空间两个维度来衡量的,即时间复杂度空间复杂度

时间复杂度主要衡量一个算法的运行快慢而空间复杂度主要衡量一个算法运行所需要的额外空间

在计算机发展的早期,计算机的存储容量很小。所以对空间复杂度很是在乎。但是经过计算机行业的迅速发展,计算机的存储容量已经达到了很高的程度。所以我们如今已经不需要再特别关注一个算法的空间复杂度(虽然话是这么说,但实际上在OJ题和面试中有很多题目都会要求空间复杂度以强迫优化算法,校验程序员的能力)。

3. 时间复杂度

定义:在计算机科学中,算法的时间复杂度是一个函数式T(N),它定量描述了该算法的运行时间时间复杂度是衡量程序的时间效率,那么为什么不去计算程序的运行时间呢?

  1. 因为程序运行时间和编译环境和运行机器的配置都有关系,比如同一个算法程序,用一个老编译器进行编译和新编译器编译,在同样机器下运行时间不同。
  2. 同一个算法程序,用一个老低配置机器和新高配置机器,运行时间也不同。
  3. 并且时间只能程序写好后测试,不能写程序前通过理论思想计算评估

那么算法的时间复杂度是一个函数式T(N)到底是什么呢?
这个T(N)函数式计算了程序的执行次数。在C语言编译链接中,我们知道算法程序被编译后生成二进制指令,程序运行,就是cpu执行这些编译好的指令。那么我们通过程序代码或者理论思想计算出程序的执行次数的函数式T(N),假设每句指令执行时间基本一样(实际中有差别,但是微乎其微),那么执行次数和运行时间就是等比正相关
这样也脱离了具体的编译运行环境,执行次数就可以代表程序时间效率的优劣
比如解决一个问题的算法a程序T(N)=N,算法b程序T(N)=N^2,那么算法a的效率一定优于算法b

举例:

//计算一下 Func1 中 ++count 语句总共执行了多少次?
void Func1(int N)
{
   
	int count = 0;
	for (int i = 0; i < N; ++i)
	{
   
		for (int j = 0; j < N; ++j)
		{
   
			++count;
		}
	}
	for (int k = 0; k < 2 * N; ++k)
	{
   
		++count;
	}
	int M = 10;
	while (M--)
	{
   
		++count;
	}
}

Func1 执行的基本操作次数:

T(N) = N ^ 2 + 2 * N + 10

N = 10,T(N) = 130
N = 100,T(N) = 10210
N = 1000 ,T(N) = 1002010
通过对N取值分析,对结果影响最大的一项是 N2 这一项。

实际中我们计算时间复杂度时,计算的也不是程序的精确的执行次数,精确执行次数计算起来还是很麻烦的(不同的一句程序代码,编译出的指令条数都是不一样的),计算出精确的执行次数意义也不大,因为我们计算时间复杂度只是想比较算法程序的增长量级,也就是当N不断变大时T(N)的差别,上面我们已经看到了当N不断变大时常数和低阶项对结果的影响很小,所以我们只需要计算程序能代表增长量级的大概执行次数,复杂度的表示通常使用大O的渐进表示法

3. 1 大O的渐进表示法

大O符号(Big O notation)是用于描述函数渐进行

你可能感兴趣的:(数据结构初阶,数据结构,算法)