- Python基础
- 文件操作
- 模块与包
- 数据类型
- 企业面试题
- 15.python新式类和经典类的区别?
- 16.python中内置的数据结构有几种?
- 17.python如何实现单例模式?请写出两种实现方式?
- 18.反转一个整数,例如-123 --> -321
- 19.设计实现遍历目录与子目录,抓取.pyc文件
- 20.一行代码实现1-100之和
- 21.Python-遍历列表时删除元素的正确做法
- 22.字符串的操作题目
- 23.可变类型和不可变类型
- 24.is和==有什么区别?
- 25.求出列表所有奇数并构造新列表
- 26.用一行python代码写出1+2+3+10248
- 27.Python中变量的作用域?(变量查找顺序)
- 28.字符串”123″转换成123,不使用内置api,例如int()
- 29.Given an array of integers
- 30.python代码实现删除一个list里面的重复元素
- 31.统计一个文本中单词频次最高的10个单词?
- 32.请写出一个函数满足以下条件
- 33.使用单一的列表生成式来产生一个新的列表
- 34.用一行代码生成[1,4,9,16,25,36,49,64,81,100]
- 35.输入某年某月某日,判断这一天是这一年的第几天?
- 36.两个有序列表,l1,l2,对这两个列表进行合并不可使用extend
- 37.给定一个任意长度数组,实现一个函数
- 38.写一个函数找出一个整数数组中,第二大的数
- 39.阅读一下代码他们的输出结果是什么?
- 40.统计一段字符串中字符出现的次数
- 41.super函数的具体用法和场景
- Python高级
- 元类
- 内存管理与垃圾回收机制
- 函数
- 52.python常见的列表推导式?
- 53.简述read、readline、readlines的区别?
- 54.什么是Hash(散列函数)?
- 55.python函数重载机制?
- 56.写一个函数找出一个整数数组中,第二大的数
- 57.手写一个判断时间的装饰器
- 58.使用Python内置的filter()方法来过滤?
- 59.编写函数的4个原则
- 60.函数调用参数的传递方式是值传递还是引用传递?
- 61.如何在function里面设置一个全局变量
- 62.对缺省参数的理解 ?
- 63.Mysql怎么限制IP访问?
- 64.带参数的装饰器?
- 65.为什么函数名字可以当做参数用?
- 66.Python中pass语句的作用是什么?
- 67.有这样一段代码,print c会输出什么,为什么?
- 68.交换两个变量的值?
- 69.map函数和reduce函数?
- 70.回调函数,如何通信的?
- 71.Python主要的内置数据类型都有哪些? print dir( ‘a ’) 的输出?
- 72.map(lambda x:xx,[y for y in range(3)])的输出?
- 73.hasattr() getattr() setattr() 函数使用详解?
- 74.一句话解决阶乘函数?
- 75.什么是lambda函数? 有什么好处?
- 76.递归函数停止的条件?
- 77.下面这段代码的输出结果将是什么?请解释。
- 78.什么是lambda函数?它有什么好处?写一个匿名函数求两个数的和
- 设计模式
- 面向对象
- 正则表达式
- 94.请写出一段代码用正则匹配出ip?
- 95.a = “abbbccc”,用正则匹配为abccc,不管有多少b,就出现一次?
- 96.Python字符串查找和替换?
- 97.用Python匹配HTML g tag的时候,<.> 和 <.*?> 有什么区别
- 98.正则表达式贪婪与非贪婪模式的区别?
- 99.写出开头匹配字母和下划线,末尾是数字的正则表达式?
- 100.正则表达式操作
- 101.请匹配出变量A 中的json字符串。
- 102.怎么过滤评论中的表情?
- 103.简述Python里面search和match的区别
- 104.请写出匹配ip的Python正则表达式
- 105.Python里match与search的区别?
- 系统编程
- 106.进程总结
- 107.谈谈你对多进程,多线程,以及协程的理解,项目是否用?
- 108.Python异常使用场景有那些?
- 109.多线程共同操作同一个数据互斥锁同步?
- 110.什么是多线程竞争?
- 111.请介绍一下Python的线程同步?
- 112.解释以下什么是锁,有哪几种锁?
- 113.什么是死锁?
- 114.多线程交互访问数据,如果访问到了就不访问了?
- 115.什么是线程安全,什么是互斥锁?
- 116.说说下面几个概念:同步,异步,阻塞,非阻塞?
- 117.什么是僵尸进程和孤儿进程?怎么避免僵尸进程?
- 118.python中进程与线程的使用场景?
- 119.线程是并发还是并行,进程是并发还是并行?
- 120.并行(parallel)和并发(concurrency)?
- 121.IO密集型和CPU密集型区别?
- 122.python asyncio的原理?
- 网络编程
- 123.怎么实现强行关闭客户端和服务器之间的连接?
- 124.简述TCP和UDP的区别以及优缺点?
- 125.简述浏览器通过WSGI请求动态资源的过程?
- 126.描述用浏览器访问www.baidu.com的过程
- 127.Post和Get请求的区别?
- 128.cookie 和session 的区别?
- 129.列出你知道的HTTP协议的状态码,说出表示什么意思?
- 130.请简单说一下三次握手和四次挥手?
- 131.说一下什么是tcp的2MSL?
- 132.为什么客户端在TIME-WAIT状态必须等待2MSL的时间?
- 133.说说HTTP和HTTPS区别?
- 134.谈一下HTTP协议以及协议头部中表示数据类型的字段?
- 135.HTTP请求方法都有什么?
- 136.使用Socket套接字需要传入哪些参数 ?
- 137.HTTP常见请求头?
- 138.七层模型?
- 139.url的形式?
- Web
- Flask
- Django
- 142.什么是wsgi,uwsgi,uWSGI?
- 143.Django、Flask、Tornado的对比?
- 144.CORS 和 CSRF的区别?
- 145.Session,Cookie,JWT的理解
- 146.简述Django请求生命周期
- 147.用的restframework完成api发送时间时区
- 148.nginx,tomcat,apach到都是什么?
- 149.请给出你熟悉关系数据库范式有哪些,有什么作用?
- 150.简述QQ登陆过程
- 151.post 和 get的区别?
- 152.项目中日志的作用
- 153.django中间件的使用?
- 154.谈一下你对uWSGI和nginx的理解?
- 155.Python中三大框架各自的应用场景?
- 156.Django中哪里用到了线程?哪里用到了协程?哪里用到了进程?
- 157.有用过Django REST framework吗?
- 158.对cookies与session的了解?他们能单独用吗?
- 爬虫
- 159.试列出至少三种目前流行的大型数据库
- 160.列举您使用过的Python网络爬虫所用到的网络数据包?
- 161.爬取数据后使用哪个数据库存储数据的,为什么?
- 162.你用过的爬虫框架或者模块有哪些?优缺点?
- 163.写爬虫是用多进程好?还是多线程好?
- 164.常见的反爬虫和应对方法?
- 165.解析网页的解析器使用最多的是哪几个?
- 166.需要登录的网页,如何解决同时限制ip,cookie,session
- 167.验证码的解决?
- 168.使用最多的数据库,对他们的理解?
- 169.编写过哪些爬虫中间件?
- 170.“极验”滑动验证码如何破解?
- 171.爬虫多久爬一次,爬下来的数据是怎么存储?
- 172.cookie过期的处理问题?
- 173.动态加载又对及时性要求很高怎么处理?
- 174.HTTPS有什么优点和缺点?
- 175.HTTPS是如何实现安全传输数据的?
- 176.TTL,MSL,RTT各是什么?
- 177.谈一谈你对Selenium和PhantomJS了解
- 178.平常怎么使用代理的 ?
- 179.存放在数据库(redis、mysql等)。
- 180.怎么监控爬虫的状态?
- 181.描述下scrapy框架运行的机制?
- 182.谈谈你对Scrapy的理解?
- 183.怎么样让 scrapy 框架发送一个 post 请求(具体写出来)
- 184.怎么监控爬虫的状态 ?
- 185.怎么判断网站是否更新?
- 186.图片、视频爬取怎么绕过防盗连接
- 187.你爬出来的数据量大概有多大?大概多长时间爬一次?
- 188.用什么数据库存爬下来的数据?部署是你做的吗?怎么部署?
- 189.增量爬取
- 190.爬取下来的数据如何去重,说一下scrapy的具体的算法依据。
- 191.Scrapy的优缺点?
- 192.怎么设置爬取深度?
- 193.scrapy和scrapy-redis有什么区别?为什么选择redis数据库?
- 194.分布式爬虫主要解决什么问题?
- 195.什么是分布式存储?
- 196.你所知道的分布式爬虫方案有哪些?
- 197.scrapy-redis,有做过其他的分布式爬虫吗?
- 数据库
- MySQL
- Redis
- MongoDB
- 测试
- 数据结构
- 222.数组中出现次数超过一半的数字-Python版
- 223.求100以内的质数
- 224.无重复字符的最长子串-Python实现
- 225.通过2个5/6升得水壶从池塘得到3升水
- 226.什么是MD5加密,有什么特点?
- 227.什么是对称加密和非对称加密
- 228.冒泡排序的思想?
- 229.快速排序的思想?
- 230.如何判断单向链表中是否有环?
- 231.你知道哪些排序算法(一般是通过问题考算法)
- 232.斐波那契数列
- 233.如何翻转一个单链表?
- 234.青蛙跳台阶问题
- 235.两数之和 Two Sum
- 236.搜索旋转排序数组 Search in Rotated Sorted Array
- 237.Python实现一个Stack的数据结构
- 238.写一个二分查找
- 239.set 用 in 时间复杂度是多少,为什么?
- 240.列表中有n个正整数范围在[0,1000],进行排序;
- 241.面向对象编程中有组合和继承的方法实现新的类
- 大数据
def get_lines():
with open('file.txt','rb') as f:
return f.readlines()
if __name__ == '__main__':
for e in get_lines():
process(e) # 处理每一行数据
现在要处理一个大小为10G的文件,但是内存只有4G,如果在只修改get_lines 函数而其他代码保持不变的情况下,应该如何实现?需要考虑的问题都有那些?
def get_lines():
with open('file.txt','rb') as f:
for i in f:
yield i
Pandaaaa906提供的方法
from mmap import mmap
def get_lines(fp):
with open(fp,"r+") as f:
m = mmap(f.fileno(), 0)
tmp = 0
for i, char in enumerate(m):
if char==b"\n":
yield m[tmp:i+1].decode()
tmp = i+1
if __name__=="__main__":
for i in get_lines("fp_some_huge_file"):
print(i)
要考虑的问题有:内存只有4G无法一次性读入10G文件,需要分批读入分批读入数据要记录每次读入数据的位置。分批每次读取数据的大小,太小会在读取操作花费过多时间。 https://stackoverflow.com/questions/30294146/python-fastest-way-to-process-large-file
def print_directory_contents(sPath):
"""
这个函数接收文件夹的名称作为输入参数
返回该文件夹中文件的路径
以及其包含文件夹中文件的路径
"""
import os
for s_child in os.listdir(s_path):
s_child_path = os.path.join(s_path, s_child)
if os.path.isdir(s_child_path):
print_directory_contents(s_child_path)
else:
print(s_child_path)
import datetime
def dayofyear():
year = input("请输入年份: ")
month = input("请输入月份: ")
day = input("请输入天: ")
date1 = datetime.date(year=int(year),month=int(month),day=int(day))
date2 = datetime.date(year=int(year),month=1,day=1)
return (date1-date2).days+1
import random
alist = [1,2,3,4,5]
random.shuffle(alist)
print(alist)
sorted(d.items(),key=lambda x:x[1])
d = {key:value for (key,value) in iterable}
print("aStr"[::-1])
str1 = "k:1|k1:2|k2:3|k3:4"
def str2dict(str1):
dict1 = {}
for iterms in str1.split('|'):
key,value = iterms.split(':')
dict1[key] = value
return dict1
#字典推导式
d = {k:int(v) for t in str1.split("|") for k, v in (t.split(":"), )}
alist = [{'name':'a','age':20},{'name':'b','age':30},{'name':'c','age':25}]
def sort_by_age(list1):
return sorted(alist,key=lambda x:x['age'],reverse=True)
list = ['a','b','c','d','e']
print(list[10:])
代码将输出[],不会产生IndexError错误,就像所期望的那样,尝试用超出成员的个数的index来获取某个列表的成员。例如,尝试获取list[10]和之后的成员,会导致IndexError。然而,尝试获取列表的切片,开始的index超过了成员个数不会产生IndexError,而是仅仅返回一个空列表。这成为特别让人恶心的疑难杂症,因为运行的时候没有错误产生,导致Bug很难被追踪到。
print([x*11 for x in range(10)])
list1 = [1,2,3]
list2 = [3,4,5]
set1 = set(list1)
set2 = set(list2)
print(set1 & set2)
print(set1 ^ set2)
l1 = ['b','c','d','c','a','a']
l2 = list(set(l1))
print(l2)
用list类的sort方法:
l1 = ['b','c','d','c','a','a']
l2 = list(set(l1))
l2.sort(key=l1.index)
print(l2)
也可以这样写:
l1 = ['b','c','d','c','a','a']
l2 = sorted(set(l1),key=l1.index)
print(l2)
也可以用遍历:
l1 = ['b','c','d','c','a','a']
l2 = []
for i in l1:
if not i in l2:
l2.append(i)
print(l2)
A,B 中相同元素: print(set(A)&set(B))
A,B 中不同元素: print(set(A)^set(B))
a. 在python里凡是继承了object的类,都是新式类
b. Python3里只有新式类
c. Python2里面继承object的是新式类,没有写父类的是经典类
d. 经典类目前在Python里基本没有应用
a. 整型 int、 长整型 long、浮点型 float、 复数 complex
b. 字符串 str、 列表 list、 元祖 tuple
c. 字典 dict 、 集合 set
d. Python3 中没有 long,只有无限精度的 int
第一种方法:使用装饰器
def singleton(cls):
instances = {}
def wrapper(*args, **kwargs):
if cls not in instances:
instances[cls] = cls(*args, **kwargs)
return instances[cls]
return wrapper
@singleton
class Foo(object):
pass
foo1 = Foo()
foo2 = Foo()
print foo1 is foo2 #True
第二种方法:使用基类 New 是真正创建实例对象的方法,所以重写基类的new 方法,以此保证创建对象的时候只生成一个实例
class Singleton(object):
def __new__(cls,*args,**kwargs):
if not hasattr(cls,'_instance'):
cls._instance = super(Singleton,cls).__new__(cls,*args,**kwargs)
return cls._instance
class Foo(Singleton):
pass
foo1 = Foo()
foo2 = Foo()
print foo1 is foo2 #True
第三种方法:元类,元类是用于创建类对象的类,类对象创建实例对象时一定要调用call方法,因此在调用call时候保证始终只创建一个实例即可,type是python的元类
class Singleton(type):
def __call__(cls,*args,**kwargs):
if not hasattr(cls,'_instance'):
cls._instance = super(Singleton,cls).__call__(*args,**kwargs)
return cls._instance
class Foo(object):
__metaclass__ = Singleton
foo1 = Foo()
foo2 = Foo()
print foo1 is foo2 #True
class Solution(object):
def reverse(self,x):
if -10<x<10:
return x
str_x = str(x)
if str_x[0] !="-":
str_x = str_x[::-1]
x = int(str_x)
else:
str_x = str_x[1:][::-1]
x = int(str_x)
x = -x
return x if -2147483648<x<2147483647 else 0
if __name__ == '__main__':
s = Solution()
reverse_int = s.reverse(-120)
print(reverse_int)
第一种方法:
import os
def get_files(dir,suffix):
res = []
for root,dirs,files in os.walk(dir):
for filename in files:
name,suf = os.path.splitext(filename)
if suf == suffix:
res.append(os.path.join(root,filename))
print(res)
get_files("./",'.pyc')
第二种方法:
import os
def pick(obj):
if ob.endswith(".pyc"):
print(obj)
def scan_path(ph):
file_list = os.listdir(ph)
for obj in file_list:
if os.path.isfile(obj):
pick(obj)
elif os.path.isdir(obj):
scan_path(obj)
if __name__=='__main__':
path = input('输入目录')
scan_path(path)
第三种方法
from glob import iglob
def func(fp, postfix):
for i in iglob(f"{fp}/**/*{postfix}", recursive=True):
print(i)
if __name__ == "__main__":
postfix = ".pyc"
func("K:\Python_script", postfix)
count = sum(range(0,101))
print(count)
遍历在新在列表操作,删除时在原来的列表操作
a = [1,2,3,4,5,6,7,8]
print(id(a))
print(id(a[:]))
for i in a[:]:
if i>5:
pass
else:
a.remove(i)
print(a)
print('-----------')
print(id(a))
#filter
a=[1,2,3,4,5,6,7,8]
b = filter(lambda x: x>5,a)
print(list(b))
列表解析
a=[1,2,3,4,5,6,7,8]
b = [i for i in a if i>5]
print(b)
倒序删除 因为列表总是‘向前移’,所以可以倒序遍历,即使后面的元素被修改了,还没有被遍历的元素和其坐标还是保持不变的
a=[1,2,3,4,5,6,7,8]
print(id(a))
for i in range(len(a)-1,-1,-1):
if a[i]>5:
pass
else:
a.remove(a[i])
print(id(a))
print('-----------')
print(a)
全字母短句 PANGRAM 是包含所有英文字母的句子,比如:A QUICK BROWN FOX JUMPS OVER THE LAZY DOG. 定义并实现一个方法 get_missing_letter, 传入一个字符串采纳数,返回参数字符串变成一个 PANGRAM 中所缺失的字符。应该忽略传入字符串参数中的大小写,返回应该都是小写字符并按字母顺序排序(请忽略所有非 ACSII 字符)
下面示例是用来解释,双引号不需要考虑:
(0)输入: "A quick brown fox jumps over the lazy dog"
返回: ""
(1)输入: "A slow yellow fox crawls under the proactive dog"
返回: "bjkmqz"
(2)输入: "Lions, and tigers, and bears, oh my!"
返回: "cfjkpquvwxz"
(3)输入: ""
返回:"abcdefghijklmnopqrstuvwxyz"
def get_missing_letter(a):
s1 = set("A QUICK BROWN FOX JUMPS OVER THE LAZY DOG".lower())
s2 = set(a.lower())
ret = "".join(sorted(s1-s2))
return ret.strip()
1,可变类型有list,dict.不可变类型有string,number,tuple.
2,当进行修改操作时,可变类型传递的是内存中的地址,也就是说,直接修改内存中的值,并没有开辟新的内存。
3,不可变类型被改变时,并没有改变原内存地址中的值,而是开辟一块新的内存,将原地址中的值复制过去,对这块新开辟的内存中的值进行操作。
is:比较的是两个对象的id值是否相等,也就是比较俩对象是否为同一个实例对象。是否指向同一个内存地址
== : 比较的两个对象的内容/值是否相等,默认会调用对象的eq()方法
a = [1,2,3,4,5,6,7,8,9,10]
res = [ i for i in a if i%2==1]
print(res)
from functools import reduce
#1.使用sum内置求和函数
num = sum([1,2,3,10248])
print(num)
#2.reduce 函数
num1 = reduce(lambda x,y :x+y,[1,2,3,10248])
print(num1)
函数作用域的LEGB顺序
1.什么是LEGB?
L:local 函数内部作用域
E: enclosing 函数内部与内嵌函数之间
G: global 全局作用域
B:build-in 内置作用域
python在函数里面的查找分为4种,称之为LEGB,也正是按照这是顺序来查找的
方法一: 利用 str
函数
def atoi(s):
num = 0
for v in s:
for j in range(10):
if v == str(j):
num = num * 10 + j
return num
方法二: 利用 ord
函数
def atoi(s):
num = 0
for v in s:
num = num * 10 + ord(v) - ord('0')
return num
方法三: 利用 eval
函数
def atoi(s):
num = 0
for v in s:
t = "%s * 1" % v
n = eval(t)
num = num * 10 + n
return num
方法四: 结合方法二,使用 reduce
,一行解决
from functools import reduce
def atoi(s):
return reduce(lambda num, v: num * 10 + ord(v) - ord('0'), s, 0)
更严谨的方案加上测试
import math
def string_to_int(input):
is_minus = False
sum = 0
count = 0
for i in input[::-1]:
if i == "-":
is_minus = True
continue
for j in range(0, 10):
if i == str(j):
sum += j*(int)(math.pow(10, count))
count += 1
break
if is_minus:
sum = 0 - sum
return sum
def string_to_int2(input):
is_minus = False
sum = 0
for i in input:
if i == "-":
is_minus = True
continue
for j in range(0, 10):
if str(j) == i:
sum = sum*10 + j
break
if is_minus:
sum = 0 - sum
return sum
assert(123 == string_to_int("123"))
assert(-123 == string_to_int("-123"))
assert(0 == string_to_int("0"))
assert(123 == string_to_int2("123"))
assert(-123 == string_to_int2("-123"))
assert(0 == string_to_int2("0"))
给定一个整数数组和一个目标值,找出数组中和为目标值的两个数。你可以假设每个输入只对应一种答案,且同样的元素不能被重复利用。示例:给定nums = [2,7,11,15],target=9 因为 nums[0]+nums[1] = 2+7 =9,所以返回[0,1]
class Solution:
def twoSum(self,nums,target):
"""
:type nums: List[int]
:type target: int
:rtype: List[int]
"""
d = {}
size = 0
while size < len(nums):
if target-nums[size] in d:
if d[target-nums[size]] <size:
return [d[target-nums[size]],size]
else:
d[nums[size]] = size
size = size +1
solution = Solution()
list = [2,7,11,15]
target = 9
nums = solution.twoSum(list,target)
print(nums)
上面的办法好,使用了list的内置函数。 这里再给一个笨办法
def find_index(input_list, target_num):
index1 = -1
index2 = -1
size = len(input_list)
if size < 2:
print "input list should have 2 item at least!"
exit(-1)
else:
for i in range(0, size):
for j in range(i, size):
if input_list[i] + input_list[j] == target_num:
return (i, j)
exit(-2)
i, j = find_index([2,7,11,15], 9)
assert(i == 0)
assert(j == 1)
def distFunc1(a):
"""使用集合去重"""
a = list(set(a))
print(a)
def distFunc2(a):
"""将一个列表的数据取出放到另一个列表中,中间作判断"""
list = []
for i in a:
if i not in list:
list.append(i)
#如果需要排序的话用sort
list.sort()
print(list)
def distFunc3(a):
"""使用字典"""
b = {}
b = b.fromkeys(a)
c = list(b.keys())
print(c)
if __name__ == "__main__":
a = [1,2,4,2,4,5,7,10,5,5,7,8,9,0,3]
distFunc1(a)
distFunc2(a)
distFunc3(a)
import re
# 方法一
def test(filepath):
distone = {}
with open(filepath) as f:
for line in f:
line = re.sub("\W+", " ", line)
lineone = line.split()
for keyone in lineone:
if not distone.get(keyone):
distone[keyone] = 1
else:
distone[keyone] += 1
num_ten = sorted(distone.items(), key=lambda x:x[1], reverse=True)[:10]
num_ten =[x[0] for x in num_ten]
return num_ten
# 方法二
# 使用 built-in 的 Counter 里面的 most_common
import re
from collections import Counter
def test2(filepath):
with open(filepath) as f:
return list(map(lambda c: c[0], Counter(re.sub("\W+", " ", f.read()).split()).most_common(10)))
该函数的输入是一个仅包含数字的list,输出一个新的list,其中每一个元素要满足以下条件:
1、该元素是偶数
2、该元素在原list中是在偶数的位置(index是偶数)
def num_list(num):
return [i for i in num if i %2 ==0 and num.index(i)%2==0]
num = [0,1,2,3,4,5,6,7,8,9,10]
result = num_list(num)
print(result)
该列表只包含满足以下条件的值,元素为原始列表中偶数切片
list_data = [1,2,5,8,10,3,18,6,20]
res = [x for x in list_data[::2] if x %2 ==0]
print(res)
[x * x for x in range(1,11)]
import datetime
y = int(input("请输入4位数字的年份:"))
m = int(input("请输入月份:"))
d = int(input("请输入是哪一天"))
targetDay = datetime.date(y,m,d)
dayCount = targetDay - datetime.date(targetDay.year -1,12,31)
print("%s是 %s年的第%s天。"%(targetDay,y,dayCount.days))
import os
import sys
l1 = [123,425,66,7522542]
l2 = [234,452,124,52,1,4215,43210]
def merge_list(l1, l2):
tmplist = []
for i in l1:
tmplist.append(i)
for i in l2:
tmplist.append(i)
return sorted(tmplist)
print merge_list(l1, l2)
l1 = [123,425,66,7522542]
l2 = [234,452,124,52,1,4215,43210]
def loop_merge_sort(l1,l2):
tmp = []
while len(l1)>0 and len(l2)>0:
if l1[0] <l2[0]:
tmp.append(l1[0])
del l1[0]
else:
tmp.append(l2[0])
del l2[0]
return tmp
print loop_merge_sort(l1, l2)
l1 = [123,425,66,7522542]
l2 = [234,452,124,52,1,4215,43210]
def merge_list2(l1, l2):
tmplist = []
while len(l1) > 0 or len(l2) > 0:
if len(l1) > 0 and len(l2) > 0:
if l1[0] < l2[0]:
tmplist.append(l1[0])
del l1[0]
else:
tmplist.append(l2[0])
del l2[0]
elif len(l1) == 0:
tmplist.append(l2[0])
del l2[0]
elif len(l2) == 0:
tmplist.append(l1[0])
del l1[0]
return tmplist
print merge_list2(l1, l2)
让所有奇数都在偶数前面,而且奇数升序排列,偶数降序排序,如字符串'1982376455',变成'1355798642'
# 方法一
def func1(l):
if isinstance(l, str):
l = [int(i) for i in l]
l.sort(reverse=True)
for i in range(len(l)):
if l[i] % 2 > 0:
l.insert(0, l.pop(i))
print(''.join(str(e) for e in l))
# 方法二
def func2(l):
print("".join(sorted(l, key=lambda x: int(x) % 2 == 0 and 20 - int(x) or int(x))))
# 方法三
def sort_string(input_string):
odd_list = []
even_list = []
for i in input_string:
i = (int)(i)
if i % 2 == 1:
odd_list.append(str(i))
else:
even_list.append(str(i))
out_string = "".join(sorted(odd_list)) + "".join(sorted(even_list, reverse=True))
return out_string
assert('1355798642' == sort_string('1982376455'))
def find_second_large_num(num_list):
"""
找出数组第2大的数字
"""
# 方法一
# 直接排序,输出倒数第二个数即可
tmp_list = sorted(num_list)
print("方法一\nSecond_large_num is :", tmp_list[-2])
# 方法二
# 设置两个标志位一个存储最大数一个存储次大数
# two 存储次大值,one 存储最大值,遍历一次数组即可,先判断是否大于 one,若大于将 one 的值给 two,将 num_list[i] 的值给 one,否则比较是否大于two,若大于直接将 num_list[i] 的值给two,否则pass
one = num_list[0]
two = num_list[0]
for i in range(1, len(num_list)):
if num_list[i] > one:
two = one
one = num_list[i]
elif num_list[i] > two:
two = num_list[i]
print("方法二\nSecond_large_num is :", two)
# 方法三
# 用 reduce 与逻辑符号 (and, or)
# 基本思路与方法二一样,但是不需要用 if 进行判断。
from functools import reduce
num = reduce(lambda ot, x: ot[1] < x and (ot[1], x) or ot[0] < x and (x, ot[1]) or ot, num_list, (0, 0))[0]
print("方法三\nSecond_large_num is :", num)
def find_second_num(input_list):
if len(input_list) < 2:
print "ERROR! there should be more than 2 num in list, but NOT! your input is %s" % input_list
else:
return sorted(input_list, reverse=True)[1]
if __name__ == '__main___':
num_list = [34, 11, 23, 56, 78, 0, 9, 12, 3, 7, 5]
find_second_large_num(num_list)
input_list = [1,2, 3,4,5,6,7,8,9,10]
assert(9 == find_second_num(input_list))
def multi():
return [lambda x : i*x for i in range(4)]
print([m(3) for m in multi()])
正确答案是[9,9,9,9],而不是[0,3,6,9]产生的原因是Python的闭包的后期绑定导致的,这意味着在闭包中的变量是在内部函数被调用的时候被查找的,因为,最后函数被调用的时候,for循环已经完成, i 的值最后是3,因此每一个返回值的i都是3,所以最后的结果是[9,9,9,9]
# 方法一
def count_str(str_data):
"""定义一个字符出现次数的函数"""
dict_str = {}
for i in str_data:
dict_str[i] = dict_str.get(i, 0) + 1
return dict_str
dict_str = count_str("AAABBCCAC")
str_count_data = ""
for k, v in dict_str.items():
str_count_data += k + str(v)
print(str_count_data)
# 方法二
from collections import Counter
print("".join(map(lambda x: x[0] + str(x[1]), Counter("AAABBCCAC").most_common())))
https://python3-cookbook.readthedocs.io/zh_CN/latest/c08/p07_calling_method_on_parent_class.html
类方法: 是类对象的方法,在定义时需要在上方使用 @classmethod 进行装饰,形参为cls,表示类对象,类对象和实例对象都可调用
类实例方法: 是类实例化对象的方法,只有实例对象可以调用,形参为self,指代对象本身;
静态方法: 是一个任意函数,在其上方使用 @staticmethod 进行装饰,可以用对象直接调用,静态方法实际上跟该类没有太大关系
class Car:
def __init__(self,name,loss): # loss [价格,油耗,公里数]
self.name = name
self.loss = loss
def getName(self):
return self.name
def getPrice(self):
# 获取汽车价格
return self.loss[0]
def getLoss(self):
# 获取汽车损耗值
return self.loss[1] * self.loss[2]
Bmw = Car("宝马",[60,9,500]) # 实例化一个宝马车对象
print(getattr(Bmw,"name")) # 使用getattr()传入对象名字,属性值。
print(dir(Bmw)) # 获Bmw所有的属性和方法
class Array:
__list = []
def __init__(self):
print "constructor"
def __del__(self):
print "destruct"
def __str__(self):
return "this self-defined array class"
def __getitem__(self,key):
return self.__list[key]
def __len__(self):
return len(self.__list)
def Add(self,value):
self.__list.append(value)
def Remove(self,index):
del self.__list[index]
def DisplayItems(self):
print "show all items---"
for item in self.__list:
print item
Cython
import datetime
class TimeException(Exception):
def __init__(self, exception_info):
super().__init__()
self.info = exception_info
def __str__(self):
return self.info
def timecheck(func):
def wrapper(*args, **kwargs):
if datetime.datetime.now().year == 2019:
func(*args, **kwargs)
else:
raise TimeException("函数已过时")
return wrapper
@timecheck
def test(name):
print("Hello {}, 2019 Happy".format(name))
if __name__ == "__main__":
test("backbp")
list(filter(lambda x: x % 2 == 0, range(10)))
设计模式是经过总结,优化的,对我们经常会碰到的一些编程问题的可重用解决方案。一个设计模式并不像一个类或一个库那样能够直接作用于我们的代码,反之,设计模式更为高级,它是一种必须在特定情形下实现的一种方法模板。 常见的是工厂模式和单例模式
#python2
class A(object):
__instance = None
def __new__(cls,*args,**kwargs):
if cls.__instance is None:
cls.__instance = objecet.__new__(cls)
return cls.__instance
else:
return cls.__instance
单例模式应用的场景一般发现在以下条件下: 资源共享的情况下,避免由于资源操作时导致的性能或损耗等,如日志文件,应用配置。 控制资源的情况下,方便资源之间的互相通信。如线程池等,1,网站的计数器 2,应用配置 3.多线程池 4数据库配置 数据库连接池 5.应用程序的日志应用...
print([x*x for x in range(1, 11)])
装饰器本质上是一个callable object ,它可以让其他函数在不需要做任何代码变动的前提下增加额外功能,装饰器的返回值也是一个函数对象。
import time
from functools import wraps
def timeit(func):
@wraps(func)
def wrapper(*args, **kwargs):
start = time.clock()
ret = func(*args, **kwargs)
end = time.clock()
print('used:',end-start)
return ret
return wrapper
@timeit
def foo():
print('in foo()')
foo()
在函数内部再定义一个函数,并且这个函数用到了外边函数的变量,那么将这个函数以及用到的一些变量称之为闭包。
装饰器本质上是一个callable object,它可以在让其他函数在不需要做任何代码的变动的前提下增加额外的功能。装饰器的返回值也是一个函数的对象,它经常用于有切面需求的场景。比如:插入日志,性能测试,事务处理,缓存。权限的校验等场景,有了装饰器就可以抽离出大量的与函数功能本身无关的雷同代码并发并继续使用。 详细参考:https://manjusaka.itscoder.com/2018/02/23/something-about-decorator/
迭代器是遵循迭代协议的对象。用户可以使用 iter() 以从任何序列得到迭代器(如 list, tuple, dictionary, set 等)。另一个方法则是创建一个另一种形式的迭代器 —— generator 。要获取下一个元素,则使用成员函数 next()(Python 2)或函数 next() function (Python 3) 。当没有元素时,则引发 StopIteration 此例外。若要实现自己的迭代器,则只要实现 next()(Python 2)或 __next__
()( Python 3)
生成器(Generator),只是在需要返回数据的时候使用yield语句。每次next()被调用时,生成器会返回它脱离的位置(它记忆语句最后一次执行的位置和所有的数据值)
区别: 生成器能做到迭代器能做的所有事,而且因为自动创建iter()和next()方法,生成器显得特别简洁,而且生成器也是高效的,使用生成器表达式取代列表解析可以同时节省内存。除了创建和保存程序状态的自动方法,当发生器终结时,还会自动抛出StopIteration异常。
官方介绍:https://docs.python.org/3/tutorial/classes.html#iterators
X= (i for i in range(10))
X是 generator类型
N =100
print ([[x for x in range(1,100)] [i:i+3] for i in range(0,100,3)])
yield就是保存当前程序执行状态。你用for循环的时候,每次取一个元素的时候就会计算一次。用yield的函数叫generator,和iterator一样,它的好处是不用一次计算所有元素,而是用一次算一次,可以节省很多空间,generator每次计算需要上一次计算结果,所以用yield,否则一return,上次计算结果就没了
进程:程序运行在操作系统上的一个实例,就称之为进程。进程需要相应的系统资源:内存、时间片、pid。 创建进程: 首先要导入multiprocessing中的Process: 创建一个Process对象; 创建Process对象时,可以传递参数;
p = Process(target=XXX,args=(tuple,),kwargs={key:value})
target = XXX 指定的任务函数,不用加(),
args=(tuple,)kwargs={key:value}给任务函数传递的参数
使用start()启动进程 结束进程 给子进程指定函数传递参数Demo
import os
from multiprocessing import Process
import time
def pro_func(name,age,**kwargs):
for i in range(5):
print("子进程正在运行中,name=%s,age=%d,pid=%d"%(name,age,os.getpid()))
print(kwargs)
time.sleep(0.2)
if __name__ =="__main__":
#创建Process对象
p = Process(target=pro_func,args=('小明',18),kwargs={'m':20})
#启动进程
p.start()
time.sleep(1)
#1秒钟之后,立刻结束子进程
p.terminate()
p.join()
注意:进程间不共享全局变量
进程之间的通信-Queue
在初始化Queue()对象时(例如q=Queue(),若在括号中没有指定最大可接受的消息数量,获数量为负值时,那么就代表可接受的消息数量没有上限一直到内存尽头)
Queue.qsize():返回当前队列包含的消息数量
Queue.empty():如果队列为空,返回True,反之False
Queue.full():如果队列满了,返回True,反之False
Queue.get([block[,timeout]]):获取队列中的一条消息,然后将其从队列中移除,
block默认值为True。
如果block使用默认值,且没有设置timeout(单位秒),消息队列如果为空,此时程序将被阻塞(停在读中状态),直到消息队列读到消息为止,如果设置了timeout,则会等待timeout秒,若还没读取到任何消息,则抛出“Queue.Empty"异常:
Queue.get_nowait()相当于Queue.get(False)
Queue.put(item,[block[,timeout]]):将item消息写入队列,block默认值为True; 如果block使用默认值,且没有设置timeout(单位秒),消息队列如果已经没有空间可写入,此时程序将被阻塞(停在写入状态),直到从消息队列腾出空间为止,如果设置了timeout,则会等待timeout秒,若还没空间,则抛出”Queue.Full"异常 如果block值为False,消息队列如果没有空间可写入,则会立刻抛出"Queue.Full"异常; Queue.put_nowait(item):相当Queue.put(item,False)
进程间通信Demo:
#coding=utf-8
from multiprocessing import Process, Queue
import os,time,random
#写数据进程执行的代码:
def write(q):
for value in ['A','B','C']:
print("Put %s to queue..." % value)
q.put(value)
time.sleep(random.random())
#读数据进程执行的代码
def read(q):
while True:
if not q.empty():
value = q.get(True)
print("Get %s from queue." % value)
time.sleep(random.random())
else:
break
if __name__=='__main__':
#父进程创建Queue,并传给各个子进程
q = Queue()
pw = Process(target=write,args=(q,))
pr = Process(target=read,args=(q,))
#启动子进程pw ,写入:
pw.start()
#等待pw结束
pw.join()
#启动子进程pr,读取:
pr.start()
pr.join()
print('')
print('所有数据都写入并且读完')
进程池Pool
#coding:utf-8
from multiprocessing import Pool
import os,time,random
def worker(msg):
t_start = time.time()
print("%s 开始执行,进程号为%d"%(msg,os.getpid()))
# random.random()随机生成0-1之间的浮点数
time.sleep(random.random()*2)
t_stop = time.time()
print(msg,"执行完毕,耗时%0.2f" % (t_stop - t_start))
po = Pool(3)#定义一个进程池,最大进程数3
for i in range(0,10):
po.apply_async(worker,(i,))
print("---start----")
po.close()
po.join()
print("----end----")
进程池中使用Queue
如果要使用Pool创建进程,就需要使用multiprocessing.Manager()中的Queue(),而不是multiprocessing.Queue(),否则会得到如下的错误信息:
RuntimeError: Queue objects should only be shared between processs through inheritance
#coding=utf-8
from multiprocessing import Manager,Pool
import os,time,random
def reader(q):
print("reader 启动(%s),父进程为(%s)"%(os.getpid(),os.getpid()))
for i in range(q.qsize()):
print("reader 从Queue获取到消息:%s"%q.get(True))
def writer(q):
print("writer 启动(%s),父进程为(%s)"%(os.getpid(),os.getpid()))
for i in "itcast":
q.put(i)
if __name__ == "__main__":
print("(%s)start"%os.getpid())
q = Manager().Queue()#使用Manager中的Queue
po = Pool()
po.apply_async(writer,(q,))
time.sleep(1)
po.apply_async(reader,(q,))
po.close()
po.join()
print("(%s)End"%os.getpid())
这个问题被问的概念相当之大, 进程:一个运行的程序(代码)就是一个进程,没有运行的代码叫程序,进程是系统资源分配的最小单位,进程拥有自己独立的内存空间,所有进程间数据不共享,开销大。
线程: cpu调度执行的最小单位,也叫执行路径,不能独立存在,依赖进程存在,一个进程至少有一个线程,叫主线程,而多个线程共享内存(数据共享,共享全局变量),从而极大地提高了程序的运行效率。
协程: 是一种用户态的轻量级线程,协程的调度完全由用户控制。协程拥有自己的寄存器上下文和栈。协程调度时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈,直接操中栈则基本没有内核切换的开销,可以不加锁的访问全局变量,所以上下文的切换非常快。
异步的使用场景:
1、 不涉及共享资源,获对共享资源只读,即非互斥操作
2、 没有时序上的严格关系
3、 不需要原子操作,或可以通过其他方式控制原子性
4、 常用于IO操作等耗时操作,因为比较影响客户体验和使用性能
5、 不影响主线程逻辑
import threading
import time
class MyThread(threading.Thread):
def run(self):
global num
time.sleep(1)
if mutex.acquire(1):
num +=1
msg = self.name + 'set num to ' +str(num)
print msg
mutex.release()
num = 0
mutex = threading.Lock()
def test():
for i in range(5):
t = MyThread()
t.start()
if __name__=="__main__":
test()
线程是非独立的,同一个进程里线程是数据共享的,当各个线程访问数据资源时会出现竞争状态即:数据几乎同步会被多个线程占用,造成数据混乱,即所谓的线程不安全
那么怎么解决多线程竞争问题?---锁
锁的好处: 确保了某段关键代码(共享数据资源)只能由一个线程从头到尾完整地执行能解决多线程资源竞争下的原子操作问题。
锁的坏处: 阻止了多线程并发执行,包含锁的某段代码实际上只能以单线程模式执行,效率就大大地下降了
锁的致命问题: 死锁
一、 setDaemon(False) 当一个进程启动之后,会默认产生一个主线程,因为线程是程序执行的最小单位,当设置多线程时,主线程会创建多个子线程,在Python中,默认情况下就是setDaemon(False),主线程执行完自己的任务以后,就退出了,此时子线程会继续执行自己的任务,直到自己的任务结束。
例子
import threading
import time
def thread():
time.sleep(2)
print('---子线程结束---')
def main():
t1 = threading.Thread(target=thread)
t1.start()
print('---主线程--结束')
if __name__ =='__main__':
main()
#执行结果
---主线程--结束
---子线程结束---
二、 setDaemon(True) 当我们使用setDaemon(True)时,这是子线程为守护线程,主线程一旦执行结束,则全部子线程被强制终止
例子
import threading
import time
def thread():
time.sleep(2)
print(’---子线程结束---')
def main():
t1 = threading.Thread(target=thread)
t1.setDaemon(True)#设置子线程守护主线程
t1.start()
print('---主线程结束---')
if __name__ =='__main__':
main()
#执行结果
---主线程结束--- #只有主线程结束,子线程来不及执行就被强制结束
三、 join(线程同步) join 所完成的工作就是线程同步,即主线程任务结束以后,进入堵塞状态,一直等待所有的子线程结束以后,主线程再终止。
当设置守护线程时,含义是主线程对于子线程等待timeout的时间将会杀死该子线程,最后退出程序,所以说,如果有10个子线程,全部的等待时间就是每个timeout的累加和,简单的来说,就是给每个子线程一个timeou的时间,让他去执行,时间一到,不管任务有没有完成,直接杀死。
没有设置守护线程时,主线程将会等待timeout的累加和这样的一段时间,时间一到,主线程结束,但是并没有杀死子线程,子线程依然可以继续执行,直到子线程全部结束,程序退出。
例子
import threading
import time
def thread():
time.sleep(2)
print('---子线程结束---')
def main():
t1 = threading.Thread(target=thread)
t1.setDaemon(True)
t1.start()
t1.join(timeout=1)#1 线程同步,主线程堵塞1s 然后主线程结束,子线程继续执行
#2 如果不设置timeout参数就等子线程结束主线程再结束
#3 如果设置了setDaemon=True和timeout=1主线程等待1s后会强制杀死子线程,然后主线程结束
print('---主线程结束---')
if __name__=='__main___':
main()
锁(Lock)是python提供的对线程控制的对象。有互斥锁,可重入锁,死锁。
若干子线程在系统资源竞争时,都在等待对方对某部分资源解除占用状态,结果是谁也不愿先解锁,互相干等着,程序无法执行下去,这就是死锁。
GIL锁 全局解释器锁(只在cython里才有)
作用: 限制多线程同时执行,保证同一时间只有一个线程执行,所以cython里的多线程其实是伪多线程!
所以python里常常使用协程技术来代替多线程,协程是一种更轻量级的线程。
进程和线程的切换时由系统决定,而协程由我们程序员自己决定,而模块gevent下切换是遇到了耗时操作时才会切换
三者的关系:进程里有线程,线程里有协程。
怎么避免重读?
创建一个已访问数据列表,用于存储已经访问过的数据,并加上互斥锁,在多线程访问数据的时候先查看数据是否在已访问的列表中,若已存在就直接跳过。
数据竞争:读线程正在读内存,写线程还没有写入完成,这时会读到损坏的数据; 竞态条件:读线程应该只在写线程完成操作后读取,如果发生相反的情况会怎么样呢?比数据竞争更微妙的,竞态条件可能是多个线程按照不可预知的顺序执行操作,而实际的要求应该按照指定顺序执行。因此,即使做到了数据保护,还是有可能触发竞态条件。
线程安全指什么 一段代码如果声称自己线程安全,那么应该做到在多线程调用时没有数据竞争并且不会触发竞态条件。你可能会注意到一些开发库声称自己是线程安全的,如果正在编写多线程代码,那么就需要确保所有第三方库都能够跨线程使用而且不会引起并发问题。
每个对象都对应于一个可称为’互斥锁‘的标记,这个标记用来保证在任一时刻,只能有一个线程访问该对象。
同一进程中的多线程之间是共享系统资源的,多个线程同时对一个对象进行操作,一个线程操作尚未结束,另一线程已经对其进行操作,导致最终结果出现错误,此时需要对被操作对象添加互斥锁,保证每个线程对该对象的操作都得到正确的结果。
同步: 多个任务之间有先后顺序执行,一个执行完下个才能执行。
异步: 多个任务之间没有先后顺序,可以同时执行,有时候一个任务可能要在必要的时候获取另一个同时执行的任务的结果,这个就叫回调!
阻塞: 如果卡住了调用者,调用者不能继续往下执行,就是说调用者阻塞了。
非阻塞: 如果不会卡住,可以继续执行,就是说非阻塞的。
同步异步相对于多任务而言,阻塞非阻塞相对于代码执行而言。
孤儿进程: 父进程退出,子进程还在运行的这些子进程都是孤儿进程,孤儿进程将被init 进程(进程号为1)所收养,并由init 进程对他们完成状态收集工作。
僵尸进程: 进程使用fork 创建子进程,如果子进程退出,而父进程并没有调用wait 获waitpid 获取子进程的状态信息,那么子进程的进程描述符仍然保存在系统中的这些进程是僵尸进程。
避免僵尸进程的方法:
1.fork 两次用孙子进程去完成子进程的任务
2.用wait()函数使父进程阻塞
3.使用信号量,在signal handler 中调用waitpid,这样父进程不用阻塞
多进程适合在CPU密集操作(cpu操作指令比较多,如位多的的浮点运算)。
多线程适合在IO密性型操作(读写数据操作比多的的,比如爬虫)
并发(concurrency)理解为多个任务看起来是并行执行的样子, 而并行(parallelism)是真正的同时执行。
线程是并发,进程是并行;
进程之间互相独立,是系统分配资源的最小单位,同一个线程中的所有线程共享资源。
并行:同一时刻多个任务同时在运行
并发:不会在同一时刻同时运行,存在交替执行的情况。
实现并行的库有: multiprocessing
实现并发的库有: threading
程序需要执行较多的读写、请求和回复任务的需要大量的IO操作,IO密集型操作使用并发更好。
CPU运算量大的程序,使用并行会更好。也就是多进程。 IO频繁的,使用并发会更好,也就是多线程。
IO密集型: 系统运行,大部分的状况是CPU在等 I/O(硬盘/内存)的读/写
CPU密集型: 大部分时间用来做计算,逻辑判断等CPU动作的程序称之CPU密集型。
asyncio这个库就是使用python的yield这个可以打断保存当前函数的上下文的机制, 封装好了selector 摆脱掉了复杂的回调关系
发送reset命令?
区别: TCP基于连接,建立连接的时候有三次握手。断开连接的时候有4次握手。UDP不基于连接。 TCP保证数据正常性。UDP不保证 TCP有拥塞控制。UDP无 TCP保证包的顺序。UDP不保证 TCP消耗资源多。UDP少。 TCP基于流。UDP基于数据报。
优缺点:看使用场景。 TCP可靠,安全。实现复杂。 UPD简单,方便。不安全。
WSGI:Web Server Gateway Interface。 资源的表述都是基于URL的,例如 http://bucket.oss-cn-hangzhou.aliyuncs.com/object 浏览器首先向DNS请求这个域名。 DNS回复一个具体的IP地址给浏览器。 浏览器向这个IP发起HTTP请求,进行建连。 建连后,请求资源,经过WSGI接口,请求动态资源。WSGI发出Response。 浏览器接收数据,并根据返回的内容显示具体的数据。
同上述的流程 1 浏览器请求DNS,获取百度的服务器IP地址 2 浏览器向服务器发出三次握手 3 建立连接后,浏览器发出HTTP请求,请求的Header中带有资源信息 4 百度服务器接收到请求后,转换成对后端资源的请求 5 百度服务器获取数据后,以HTTP Response的方式将数据回传给浏览器 6 浏览器获取数据后,渲染网页,最终展示结果
POST请求一般都需要交互,并且交互的数据放在Body中。常见的有提交表格等。 GET请求一般都是请求数据,请求参数都放在Header中。常见的有获取页面内容等。 参数的长度, 安全性 是否可被缓存
存放的位置不同。 以用户的机器来请求百度的服务器来说。 cookie是相对用户的机器来说的,访问百度的网络信息以文件的形式会被写在本地,有限个。删除了就没有了。 写入长度是4k。安全性相对session来说差些。 session是相对服务器来说的,可以有无限个。写入长度可以认为是无限的。安全性相对高些。
200 正常 204 删除正常 206 获取部分数据 301 跳转 302 永久跳转 304 无修改 400 错误的请求或者是坏的请求 404 不存在 405 方法不对 409 冲突 500 错误 503 超限了 504 网关超时
1 客户端向服务器端发起SYNC,客户端SYNC_SEND状态 2 服务器端收到SYNC后,发送一个ACK+SYNC,SERVER端处于LISTEN和SYNC_RECV状态 3 客户端收到SYNC后,发送一个ACK 客户端和SERVER端都处于ESTABLISHED状态 三次握手完成,双方建连
四次挥手 1 CLIENT发送FIN FIN_WAIT_1 2 SERVER回复ACK CLOSE_WAIT 3 SERVER发送FIN CLIENT收到后FIN_WAIT_2,SERVER:LAST_ACK 4 CLIENT回复ACK ,CLIENT处于CLOSE_WAIT,SERVER:CLOSE
MSL是Maximum Segment Lifetime英文的缩写,中文可以译为“报文最大生存时间”,是任何报文在网络上存在的最长时间,超过这个时间报文将被丢弃。 2MSL即两倍的MSL。
TCP的TIME_WAIT状态也称为2MSL等待状态,当TCP的一端发起主动关闭,在发出最后一个ACK包后,即第三次握手完成后发送了第四次握手的ACK包后就进入了TIME_WAIT状态,必须在此状态上停留两倍的MSL时间,等待2MSL时间主要目的是怕最后一个ACK包对方没收到,那么对方在超时后将重发第三次握手的FIN包,主动关闭端在接到重发的FIN包后可以再发一个ACK应答包。在TIME_WAIT状态时两端的端口不能使用,要等到2MSL时间结束才可继续使用。当连接处于2MSL等待阶段时任何迟到的报文段都将被丢弃。不过在实际应用中可以通过设置SO_REUSEADDR选项达到不必等待2MSL时间结束再使用此端口。
HTTP相对HTTPS来说 HTTP 无需证书 请求步骤少,简单 所需资源少 明文 端口:80
HTTP的请求流程 三次握手 传输数据 四次挥手
HTTPS多了证书交换的步骤 需要申请证书 需要的资源多 加密,安全性高 端口:443
HTTPS的请求流程 客户端请求HTTPS连接,服务器返回证书公钥 客户端生成随机对称加密密钥,并用证书公钥加密对称密钥发送给服务器端 服务器收到加密的对称密钥 客户端开始使用对称加密密钥对数据进行加密,发送给服务器 服务器用对称加密密钥解密数据
METHOD URL HEADER BODY
Content-Type:是表示数据类型
PUT GET DELETE POST OPTION
IP 端口 协议
Host Content-Length Content-Type Server Authorization
应用层 表示层 会话层 传输层 IP层 链路层 物理层
与之相对的是 应用层 传输层 网络层 数据链路层
https://bucket.oss-cn-hangzhou.aliyuncs.com/object
蓝图的定义
蓝图 /Blueprint 是Flask应用程序组件化的方法,可以在一个应用内或跨越多个项目共用蓝图。使用蓝图可以极大简化大型应用的开发难度,也为Flask扩展提供了一种在应用中注册服务的集中式机制。
蓝图的应用场景:
把一个应用分解为一个蓝图的集合。这对大型应用是理想的。一个项目可以实例化一个应用对象,初始化几个扩展,并注册一集合的蓝图。
以URL前缀和/或子域名,在应用上注册一个蓝图。URL前缀/子域名中的参数即成为这个蓝图下的所有视图函数的共同的视图参数(默认情况下) 在一个应用中用不同的URL规则多次注册一个蓝图。
通过蓝图提供模板过滤器、静态文件、模板和其他功能。一个蓝图不一定要实现应用或视图函数。
初始化一个Flask扩展时,在这些情况中注册一个蓝图。
蓝图的缺点:
不能在应用创建后撤销注册一个蓝图而不销毁整个应用对象。
使用蓝图的三个步骤
1.创建一个蓝图对象
blue = Blueprint("blue",__name__)
2.在这个蓝图对象上进行操作,例如注册路由、指定静态文件夹、注册模板过滤器...
@blue.route('/')
def blue_index():
return "Welcome to my blueprint"
3.在应用对象上注册这个蓝图对象
app.register_blueprint(blue,url_prefix="/blue")
在django中,路由是浏览器访问服务器时,先访问的项目中的url,再由项目中的url找到应用中url,这些url是放在一个列表里,遵从从前往后匹配的规则。在flask中,路由是通过装饰器给每个视图函数提供的,而且根据请求方式的不同可以一个url用于不同的作用。
WSGI:
web服务器网关接口,是一套协议。用于接收用户请求并将请求进行初次封装,然后将请求交给web框架。
实现wsgi协议的模块:wsgiref,本质上就是编写一socket服务端,用于接收用户请求(django)
werkzeug,本质上就是编写一个socket服务端,用于接收用户请求(flask)
uwsgi:
与WSGI一样是一种通信协议,它是uWSGI服务器的独占协议,用于定义传输信息的类型。 uWSGI:
是一个web服务器,实现了WSGI的协议,uWSGI协议,http协议
1、 Django走的大而全的方向,开发效率高。它的MTV框架,自带的ORM,admin后台管理,自带的sqlite数据库和开发测试用的服务器,给开发者提高了超高的开发效率。 重量级web框架,功能齐全,提供一站式解决的思路,能让开发者不用在选择上花费大量时间。
自带ORM和模板引擎,支持jinja等非官方模板引擎。
自带ORM使Django和关系型数据库耦合度高,如果要使用非关系型数据库,需要使用第三方库
自带数据库管理app
成熟,稳定,开发效率高,相对于Flask,Django的整体封闭性比较好,适合做企业级网站的开发。python web框架的先驱,第三方库丰富
2、 Flask 是轻量级的框架,自由,灵活,可扩展性强,核心基于Werkzeug WSGI工具 和jinja2 模板引擎
适用于做小网站以及web服务的API,开发大型网站无压力,但架构需要自己设计
与关系型数据库的结合不弱于Django,而与非关系型数据库的结合远远优于Django
3、 Tornado走的是少而精的方向,性能优越,它最出名的异步非阻塞的设计方式
Tornado的两大核心模块:
iostraem:对非阻塞的socket进行简单的封装
ioloop: 对I/O 多路复用的封装,它实现一个单例
什么是CORS?
CORS是一个W3C标准,全称是“跨域资源共享"(Cross-origin resoure sharing). 它允许浏览器向跨源服务器,发出XMLHttpRequest请求,从而客服了AJAX只能同源使用的限制。
什么是CSRF?
CSRF主流防御方式是在后端生成表单的时候生成一串随机token,内置到表单里成为一个字段,同时,将此串token置入session中。每次表单提交到后端时都会检查这两个值是否一致,以此来判断此次表单提交是否是可信的,提交过一次之后,如果这个页面没有生成CSRF token,那么token将会被清空,如果有新的需求,那么token会被更新。 攻击者可以伪造POST表单提交,但是他没有后端生成的内置于表单的token,session中没有token都无济于事。
为什么要使用会话管理
众所周知,HTTP协议是一个无状态的协议,也就是说每个请求都是一个独立的请求,请求与请求之间并无关系。但在实际的应用场景,这种方式并不能满足我们的需求。举个大家都喜欢用的例子,把商品加入购物车,单独考虑这个请求,服务端并不知道这个商品是谁的,应该加入谁的购物车?因此这个请求的上下文环境实际上应该包含用户的相关信息,在每次用户发出请求时把这一小部分额外信息,也做为请求的一部分,这样服务端就可以根据上下文中的信息,针对具体的用户进行操作。所以这几种技术的出现都是对HTTP协议的一个补充,使得我们可以用HTTP协议+状态管理构建一个的面向用户的WEB应用。
Session 和Cookie的区别
这里我想先谈谈session与cookies,因为这两个技术是做为开发最为常见的。那么session与cookies的区别是什么?个人认为session与cookies最核心区别在于额外信息由谁来维护。利用cookies来实现会话管理时,用户的相关信息或者其他我们想要保持在每个请求中的信息,都是放在cookies中,而cookies是由客户端来保存,每当客户端发出新请求时,就会稍带上cookies,服务端会根据其中的信息进行操作。 当利用session来进行会话管理时,客户端实际上只存了一个由服务端发送的session_id,而由这个session_id,可以在服务端还原出所需要的所有状态信息,从这里可以看出这部分信息是由服务端来维护的。
除此以外,session与cookies都有一些自己的缺点:
cookies的安全性不好,攻击者可以通过获取本地cookies进行欺骗或者利用cookies进行CSRF攻击。使用cookies时,在多个域名下,会存在跨域问题。 session 在一定的时间里,需要存放在服务端,因此当拥有大量用户时,也会大幅度降低服务端的性能,当有多台机器时,如何共享session也会是一个问题.(redis集群)也就是说,用户第一个访问的时候是服务器A,而第二个请求被转发给了服务器B,那服务器B如何得知其状态。实际上,session与cookies是有联系的,比如我们可以把session_id存放在cookies中的。
JWT是如何工作的
首先用户发出登录请求,服务端根据用户的登录请求进行匹配,如果匹配成功,将相关的信息放入payload中,利用算法,加上服务端的密钥生成token,这里需要注意的是secret_key很重要,如果这个泄露的话,客户端就可以随机篡改发送的额外信息,它是信息完整性的保证。生成token后服务端将其返回给客户端,客户端可以在下次请求时,将token一起交给服务端,一般是说我们可以将其放在Authorization首部中,这样也就可以避免跨域问题。
一般是用户通过浏览器向我们的服务器发起一个请求(request),这个请求会去访问视图函数,如果不涉及到数据调用,那么这个时候视图函数返回一个模板也就是一个网页给用户) 视图函数调用模型毛模型去数据库查找数据,然后逐级返回,视图函数把返回的数据填充到模板中空格中,最后返回网页给用户。
1.wsgi ,请求封装后交给web框架(Flask,Django)
2.中间件,对请求进行校验或在请求对象中添加其他相关数据,例如:csrf,request.session
3.路由匹配 根据浏览器发送的不同url去匹配不同的视图函数
4.视图函数,在视图函数中进行业务逻辑的处理,可能涉及到:orm,templates
5.中间件,对响应的数据进行处理
6.wsgi,将响应的内容发送给浏览器
当前的问题是用django的rest framework模块做一个get请求的发送时间以及时区信息的api
class getCurrenttime(APIView):
def get(self,request):
local_time = time.localtime()
time_zone =settings.TIME_ZONE
temp = {'localtime':local_time,'timezone':time_zone}
return Response(temp)
Nginx(engine x)是一个高性能的HTTP和反向代理服务器,也是 一个IMAP/POP3/SMTP服务器,工作在OSI七层,负载的实现方式:轮询,IP_HASH,fair,session_sticky. Apache HTTP Server是一个模块化的服务器,源于NCSAhttpd服务器 Tomcat 服务器是一个免费的开放源代码的Web应用服务器,属于轻量级应用服务器,是开发和调试JSP程序的首选。
在进行数据库的设计时,所遵循的一些规范,只要按照设计规范进行设计,就能设计出没有数据冗余和数据维护异常的数据库结构。
数据库的设计的规范有很多,通常来说我们在设是数据库时只要达到其中一些规范就可以了,这些规范又称之为数据库的三范式,一共有三条,也存在着其他范式,我们只要做到满足前三个范式的要求,就能设陈出符合我们的数据库了,我们也不能全部来按照范式的要求来做,还要考虑实际的业务使用情况,所以有时候也需要做一些违反范式的要求。 1.数据库设计的第一范式(最基本),基本上所有数据库的范式都是符合第一范式的,符合第一范式的表具有以下几个特点:
数据库表中的所有字段都只具有单一属性,单一属性的列是由基本的数据类型(整型,浮点型,字符型等)所构成的设计出来的表都是简单的二比表
2.数据库设计的第二范式(是在第一范式的基础上设计的),要求一个表中只具有一个业务主键,也就是说符合第二范式的表中不能存在非主键列对只对部分主键的依赖关系
3.数据库设计的第三范式,指每一个非主属性既不部分依赖与也不传递依赖于业务主键,也就是第二范式的基础上消除了非主属性对主键的传递依赖
qq登录,在我们的项目中分为了三个接口,
第一个接口是请求qq服务器返回一个qq登录的界面;
第二个接口是通过扫码或账号登陆进行验证,qq服务器返回给浏览器一个code和state,利用这个code通过本地服务器去向qq服务器获取access_token覆返回给本地服务器,凭借access_token再向qq服务器获取用户的openid(openid用户的唯一标识)
第三个接口是判断用户是否是第一次qq登录,如果不是的话直接登录返回的jwt-token给用户,对没有绑定过本网站的用户,对openid进行加密生成token进行绑定
1.GET是从服务器上获取数据,POST是向服务器传送数据
2.在客户端,GET方式在通过URL提交数据,数据在URL中可以看到,POST方式,数据放置在HTML——HEADER内提交
3.对于GET方式,服务器端用Request.QueryString获取变量的值,对于POST方式,服务器端用Request.Form获取提交的数据
一、日志相关概念
1.日志是一种可以追踪某些软件运行时所发生事件的方法
2.软件开发人员可以向他们的代码中调用日志记录相关的方法来表明发生了某些事情
3.一个事件可以用一个包含可选变量数据的消息来描述
4.此外,事件也有重要性的概念,这个重要性也可以被成为严重性级别(level)
二、日志的作用
1.通过log的分析,可以方便用户了解系统或软件、应用的运行情况;
2.如果你的应用log足够丰富,可以分析以往用户的操作行为、类型喜好,地域分布或其他更多信息;
3.如果一个应用的log同时也分了多个级别,那么可以很轻易地分析得到该应用的健康状况,及时发现问题并快速定位、解决问题,补救损失。
4.简单来讲就是我们通过记录和分析日志可以了解一个系统或软件程序运行情况是否正常,也可以在应用程序出现故障时快速定位问题。不仅在开发中,在运维中日志也很重要,日志的作用也可以简单。总结为以下几点:
1.程序调试
2.了解软件程序运行情况,是否正常
3,软件程序运行故障分析与问题定位
4,如果应用的日志信息足够详细和丰富,还可以用来做用户行为分析
Django在中间件中预置了六个方法,这六个方法的区别在于不同的阶段执行,对输入或输出进行干预,方法如下:
1.初始化:无需任何参数,服务器响应第一个请求的时候调用一次,用于确定是否启用当前中间件
def __init__():
pass
2.处理请求前:在每个请求上调用,返回None或HttpResponse对象。
def process_request(request):
pass
3.处理视图前:在每个请求上调用,返回None或HttpResponse对象。
def process_view(request,view_func,view_args,view_kwargs):
pass
4.处理模板响应前:在每个请求上调用,返回实现了render方法的响应对象。
def process_template_response(request,response):
pass
5.处理响应后:所有响应返回浏览器之前被调用,在每个请求上调用,返回HttpResponse对象。
def process_response(request,response):
pass
6.异常处理:当视图抛出异常时调用,在每个请求上调用,返回一个HttpResponse对象。
def process_exception(request,exception):
pass
1.uWSGI是一个Web服务器,它实现了WSGI协议、uwsgi、http等协议。Nginx中HttpUwsgiModule的作用是与uWSGI服务器进行交换。WSGI是一种Web服务器网关接口。它是一个Web服务器(如nginx,uWSGI等服务器)与web应用(如用Flask框架写的程序)通信的一种规范。
要注意WSGI/uwsgi/uWSGI这三个概念的区分。
WSGI是一种通信协议。
uwsgi是一种线路协议而不是通信协议,在此常用于在uWSGI服务器与其他网络服务器的数据通信。
uWSGI是实现了uwsgi和WSGI两种协议的Web服务器。
nginx 是一个开源的高性能的HTTP服务器和反向代理:
1.作为web服务器,它处理静态文件和索引文件效果非常高
2.它的设计非常注重效率,最大支持5万个并发连接,但只占用很少的内存空间
3.稳定性高,配置简洁。
4.强大的反向代理和负载均衡功能,平衡集群中各个服务器的负载压力应用
django:主要是用来搞快速开发的,他的亮点就是快速开发,节约成本,,如果要实现高并发的话,就要对django进行二次开发,比如把整个笨重的框架给拆掉自己写socket实现http的通信,底层用纯c,c++写提升效率,ORM框架给干掉,自己编写封装与数据库交互的框架,ORM虽然面向对象来操作数据库,但是它的效率很低,使用外键来联系表与表之间的查询; flask: 轻量级,主要是用来写接口的一个框架,实现前后端分离,提考开发效率,Flask本身相当于一个内核,其他几乎所有的功能都要用到扩展(邮件扩展Flask-Mail,用户认证Flask-Login),都需要用第三方的扩展来实现。比如可以用Flask-extension加入ORM、文件上传、身份验证等。Flask没有默认使用的数据库,你可以选择MySQL,也可以用NoSQL。
其WSGI工具箱用Werkzeug(路由模块),模板引擎则使用Jinja2,这两个也是Flask框架的核心。
Tornado: Tornado是一种Web服务器软件的开源版本。Tornado和现在的主流Web服务器框架(包括大多数Python的框架)有着明显的区别:它是非阻塞式服务器,而且速度相当快。得利于其非阻塞的方式和对epoll的运用,Tornado每秒可以处理数以千计的连接因此Tornado是实时Web服务的一个理想框架
1.Django中耗时的任务用一个进程或者线程来执行,比如发邮件,使用celery.
2.部署django项目是时候,配置文件中设置了进程和协程的相关配置。
Django REST framework是一个强大而灵活的Web API工具。使用RESTframework的理由有:
Web browsable API对开发者有极大的好处
包括OAuth1a和OAuth2的认证策略
支持ORM和非ORM数据资源的序列化
全程自定义开发--如果不想使用更加强大的功能,可仅仅使用常规的function-based views额外的文档和强大的社区支持
Session采用的是在服务器端保持状态的方案,而Cookie采用的是在客户端保持状态的方案。但是禁用Cookie就不能得到Session。因为Session是用Session ID来确定当前对话所对应的服务器Session,而Session ID是通过Cookie来传递的,禁用Cookie相当于SessionID,也就得不到Session。
MySQL, SQLServer, Oracle, SQLite
ESDB
多线程适用于IO密集型的,所以是多线程好。
MySQL RDS OTS ESDB
存储到OSS上?
重新登录认证
安全,加密,可信任 缺点:耗时,证书需要费用
前提:服务器端公开密钥向数字认证机构申请证书 数字认证机构用私钥签发证书,服务器端部署公钥和私钥证书
1 客户端要求以HTTPS的形式和服务器端建立连接 2 服务器端将认证的证书的公钥发送给客户端 3 客户端确认证书有效,并和服务器端协商后续通信的加密级别及对称密钥。 以证书公钥加密后续通信会话加密的对称密钥(一串随机字符串) 4 服务器端以证书私钥解密客户端的信息,获取对称密钥 5 客户端用对称密钥加密信息,发送给服务器端 6 服务器端使用对称密钥解密信息,发送客户端
TTL是 Time To Live的缩写,该字段指定IP包被路由器丢弃之前允许通过的最大网段数量。TTL是IPv4包头的一个8 bit字段。
每个TCP实现必须选择一个MSL。它是任何报文段被丢弃前在网络内的最长时间。这个时间是有限的,因为TCP报文段以IP数据报在网络内传输,而IP数据报则有限制其生存时间的TTL时间。RFC 793指出MSL为2分钟,现实中常用30秒或1分钟。 MSL(Maximum Segment Lifetime)最大报文生存时间
当TCP执行主动关闭,并发出最后一个ACK,该链接必须在TIME_WAIT状态下停留的时间为2MSL。
RTT(round-trip-time)往返时间 TCP超时与重传中最重要的部分就是对一个给定连接的往返时间RTT的测量。由于路由器和网络流量均会变化,因此这个时间可能经常会变化,TCP应该跟踪这些变化并相应地改变其超时时间。
1 将请求转发到其他fastcgi模块 2 将请求转发到其他域名或者VIP 3 将请求根据来源IP解析到不同的加速分组 4 访问不通某个地址,将请求统一解析到代理
redis没有用过 mysql一般用来存放管控的meta信息
1 指定测试对象 2 分配测试环境,测试人力资源 3 编写测试用例 4 完成对测试对象的验收 5 确定最终的发布时间
1 功能 2 性能测试
具体的测试类型有: 单元测试 -> 功能测试 -> 系统测试 压力测试 性能测试 Failover测试
github
保证软件按照指定的目标运行
复现的环境,版本,复现步骤 现象是什么
黑盒不需要了解实现的细节,只需要了解功能是什么,输入,输出,期望值。 构建测试用例。
白盒测试需要对具体的实现细节,跑到的逻辑分支,结果都需要很了解。
单元测试 功能测试 系统测试 failover测试 性能测试 兼容性测试 压力测试 E2E测试
Alpha:是内部测试版,一般不向外部发布,会有很多Bug.一般只有测试人员使用。 Beta:也是测试版,这个阶段的版本会一直加入新的功能。在Alpha版之后推出。 RC:(Release Candidate) 顾名思义么 ! 用在软件上就是候选版本。系统平台上就是发行候选版本。RC版不会再加入新的功能了,主要着重于除错。 GA:General Availability,正式发布的版本,在国外都是用GA来说明release版本的。
软件没有按照输入的条件得到期望的结果,就是bug。 一个bug report 需要包括 1 测试对象 2 测试环境 3 重现步骤(输入条件,结果以及期望结果) 4 时间点
def count_num(input_list=None):
total_num = 0
count_word = {}
if not input_list:
input_list = []
for i in input_list:
word = "%s" % i
if count_word.has_key(word):
count_word[word] += 1
else:
count_word[word] = 1
total_num += 1
return (count_word, total_num)
def show_top(count_word, total_num):
for k, v in count_word.items():
if 2*v > total_num:
print "%s: show %s times, more than half!" % (k, v)
if __name__ == "__main__":
input_list = [1,1,1,2,3]
(count_word, total_num) = count_num(input_list)
show_top(count_word, total_num)
input_list = [x for x in range(100)]
def is_zhishu(input_num):
is_it = True
if input_num > 2:
for i in range(2, input_num/2+1):
if input_num % i == 0:
is_it = False
break
return is_it
for i in input_list:
if is_zhishu(i):
print "%s is zhishu!" % i
def get_longest_no_repeat_string(input_string):
stats_set = set()
repeat_string = ""
for i in input_string:
if i in stats_set:
break
else:
stats_set.add(i)
repeat_string += i
return repeat_string
test = "abcdefghijklff"
assert("abcdefghijkl" == get_longest_no_repeat_string(test))
test = ""
assert("" == get_longest_no_repeat_string(test))
test = "a"
assert("a" == get_longest_no_repeat_string(test))
test = "aa"
assert("a" == get_longest_no_repeat_string(test))
test = "aaa"
assert("a" == get_longest_no_repeat_string(test))
test = "aba"
assert("ab" == get_longest_no_repeat_string(test))
1 2个5升倒满,第一个5升全部倒入6升,第2个5升继续倒,直到6升满后停止。 2 这个时候5升壶中有4升水,4升水倒入到6升中,6升水壶还剩下2升空。 3 将5升水打满,倒入到6升壶中,直到6升满后停止。5升壶中还剩下3升水
MD5的全称是Message-Digest Algorithm 5, 可以将任何内容变成128Bit的摘要 它是一个不可逆的字符串变换算法。 比如做下载校验 做登录校验
非对称加密和对称加密在加密和解密过程、加密解密速度、传输的安全性上都有所不同,具体介绍如下:
1、加密和解密过程不同
对称加密过程和解密过程使用的同一个密钥,加密过程相当于用原文+密钥可以传输出密文,同时解密过程用密文-密钥可以推导出原文。但非对称加密采用了两个密钥,一般使用公钥进行加密,使用私钥进行解密。
2、加密解密速度不同
对称加密解密的速度比较快,适合数据比较长时的使用。非对称加密和解密花费的时间长、速度相对较慢,只适合对少量数据的使用。
冒泡排序(BubbleSort)的基本概念是:依次比较相邻的两个数,将小数放在前面,大数放在后面。即首先比较第1个和第2个数,将小数放前,大数放后。然后比较第2个数和第3个数,将小数放前,大数放后,如此继续,直至比较最后两个数,将小数放前,大数放后。重复以上过程,仍从第一对数开始比较(因为可能由于第2个数和第3个数的交换,使得第1个数不再大于第2个数),将小数放前,大数放后,一直比较到最小数前的一对相邻数,将小数放前,大数放后,第二趟结束,在倒数第二个数中得到一个新的最小数。如此下去,直至最终完成排序。 由于在排序过程中总是小数往前放,大数往后放,相当于气泡往上升,所以称作冒泡排序。
input_list_len = len(input_list)
if input_list_len > 1:
for i in range(0, input_list_len-1):
j = i + 1
for j in range(i+1, input_list_len):
if input_list[i] > input_list[j]:
x = input_list[i]
input_list[i] = input_list[j]
input_list[j] = x
return input_list
input_list = []
print bubble_sort(input_list)
input_list = [44412,41,43214,5,3552,52362]
print bubble_sort(input_list)
input_list = [1]
print bubble_sort(input_list)
input_list = [1, 2]
print bubble_sort(input_list)
input_list = [2, 1]
print bubble_sort(input_list)
input_list = [2, 1, 3, 4, 5, 6, 7, 8, 9, 10]
print bubble_sort(input_list)
input_list = [10, 9, 8, 4, 5, 6, 7, 8, 9, 10]
print bubble_sort(input_list)
input_list = [10, 9, 8, 7, 6, 5, 4, 3, 2, 1]
print bubble_sort(input_list)
快速排序的基本思想就是从一个数组中任意挑选一个元素(通常来说会选择最左边的元素)作为中轴元素,将剩下的元素以中轴元素作为比较的标准,将小于等于中轴元素的放到中轴元素的左边,将大于中轴元素的放到中轴元素的右边。
然后以当前中轴元素的位置为界,将左半部分子数组和右半部分子数组看成两个新的数组,重复上述操作,直到子数组的元素个数小于等于1(因为一个元素的数组必定是有序的)。
def quick_sort(array, l, r):
if l < r:
q = partition(array, l, r)
quick_sort(array, l, q - 1)
quick_sort(array, q + 1, r)
def partition(array, l, r):
x = array[r]
i = l - 1
for j in range(l, r):
if array[j] <= x:
i += 1
array[i], array[j] = array[j], array[i]
array[i + 1], array[r] = array[r], array[i+1]
return i + 1
双指针,一快一慢,当两个指针的地址相等的时候,就证明有环。 当直到遍历完毕,还无相等地址的时候,就证明无环。
八大排序算法
斐波那契数列(Fibonacci sequence),又称黄金分割数列、因数学家列昂纳多·斐波那契(Leonardoda Fibonacci)以兔子繁殖为例子而引入,故又称为“兔子数列”,指的是这样一个数列:1、1、2、3、5、8、13、21、34、……在数学上,斐波纳契数列以如下被以递推的方法定义:F(1)=1,F(2)=1, F(n)=F(n-1)+F(n-2)(n>=3,n∈N*)
def Fibonacci(n): if 0 == n or 1 == n: return n return Fibonacci(n-1) + Fibonacci(n-2)
BloomFilter