一、子类继承父类的三种方式html
class Dog(Animal): #子类 派生类 def __init__(self,name,breed, life_value,aggr): # Animal.__init__(self,name,breed, life_value,aggr)#让子类执行父类的方法 就是父类名.方法名(参数),连self都得传 super().__init__(name,life_value,aggr) #super关键字 ,都不用传self了,在新式类里的 # super(Dog,self).__init__(name,life_value,aggr) #上面super是简写 self.breed = breed def bite(self,person): #狗的派生方法 person.life_value -= self.aggr def eat(self): #父类方法的重写 super().eat() print('dog is eating')
二、对象经过索引设置值得三种方式python
方式1、重写__setitem__方法mysql
class Foo(object): def __setitem__(self, key, value): print(key,value) obj = Foo() obj["xxx"] = 123 #给对象赋值就会去执行__setitem__方法
方式2、继承dictsql
class Foo(dict): pass obj = Foo() obj["xxx"] = 123 print(obj)
方式三:继承dict,重写__init__方法时,记得要继承父类的__init__方法数据库
class Foo(dict): def __init__(self,val): # dict.__init__(self, val)#继承父类方式一 # super().__init__(val) #继承父类方式二 super(Foo,self).__init__(val)#继承父类方式三 obj = Foo({"xxx":123}) print(obj)
总结:若是遇到obj[‘xxx’] = xx,django
- 重写了__setitem__方法flask
- 继承dictsession
三、测试__name__方法多线程
示例:并发
app1中: import app2 print('app1', __name__) app2中: print('app2', __name__)
如今app1是主程序,运行结果截图
总结:
若是是在本身的模块中运行,__name__就是__main__,若是是从别的文件中导入进来的,就不是__main__了
==========方式一:============ app.config['SESSION_COOKIE_NAME'] = 'session_lvning' #这种方式要把全部的配置都放在一个文件夹里面,看起来会比较乱,因此选择下面的方式 ==========方式二:============== app.config.from_pyfile('settings.py') #找到配置文件路径,建立一个模块,打开文件,并获取全部的内容,再将配置文件中的全部值,都封装到上一步建立的配置文件模板中 print(app.config.get("CCC")) =========方式三:对象的方式============ import os os.environ['FLAKS-SETTINGS'] = 'settings.py' app.config.from_envvar('FLAKS-SETTINGS') ===============方式四(推荐):字符串的方式,方便操做,不用去改配置,直接改变字符串就好了 ============== app.config.from_object('settings.DevConfig') ----------settings.DevConfig---------- from app import app class BaseConfig(object): NNN = 123 #注意是大写 SESSION_COOKIE_NAME = "session_sss" class TestConfig(BaseConfig): DB = "127.0.0.1" class DevConfig(BaseConfig): DB = "52.5.7.5" class ProConfig(BaseConfig): DB = "55.4.22.4"
要想在视图函数中获取配置文件的值,都是经过app.config来拿。可是若是视图函数和Flask建立的对象app不在一个模块。就得
导入来拿。能够不用导入,。直接导入一个current_app,这个就是当前的app对象,用current_app.config就能查看到了当前app的全部的配置文件
from flask import Flask,current_app
@app.route('/index',methods=["GET","POST"]) def index(): print(current_app.config) #当前的app的全部配置 session["xx"] = "fdvbn" return "index"
若是代码很是多,要进行归类。不一样的功能放在不一样的文件,吧相关的视图函数也放进去。蓝图也就是对flask的目录结构进行分配(应用于小,中型的程序),
一、小中型:
manage.py
import fcrm if __name__ == '__main__': fcrm.app.run()
__init__.py(只要导入fcrm就会执行__init__.py文件)
from flask import Flask #导入accout 和order from fcrm.views import accout from fcrm.views import order app = Flask(__name__) print(app.root_path) #根目录 app.register_blueprint(accout.accout) #吧蓝图注册到app里面,accout.accout是建立的蓝图对象 app.register_blueprint(order.order)
accout.py
from flask import Blueprint,render_template accout = Blueprint("accout",__name__) @accout.route('/accout') def xx(): return "accout" @accout.route("/login") def login(): return render_template("login.html")
order.py
from flask import Blueprint order = Blueprint("order",__name__) @order.route('/order') def register(): #注意视图函数的名字不能和蓝图对象的名字同样 return "order
使用蓝图时须要注意的
二、大型:
flask中是没有ORM的,若是在flask里面链接数据库有两种方式
1:pymysql
2:SQLAlchemy
是python 操做数据库的一个库。可以进行 orm 映射官方文档 sqlchemy
SQLAlchemy“采用简单的Python语言,为高效和高性能的数据库访问设计,实现了完整的企业级持久模型”。SQLAlchemy的理念是,SQL数据库的量级和性能重要于对象集合;而对象集合的抽象又重要于表和行。
一、链接池原理
- BDUtils数据库连接池 - 模式一:基于threaing.local实现为每个线程建立一个链接,关闭是 伪关闭,当前线程能够重复 - 模式二:链接池原理 - 能够设置链接池中最大链接数 9 - 默认启动时,链接池中建立链接 5 - 若是有三个线程来数据库中获取链接: - 若是三个同时来的,一人给一个连接 - 若是一个一个来,有时间间隔,用一个连接就能够为三个线程提供服务 - 说不许 有可能:1个连接就能够为三个线程提供服务 有可能:2个连接就能够为三个线程提供服务 有可能:3个连接就能够为三个线程提供服务 PS、:maxshared在使用pymysql中均无用。连接数据库的模块:只有threadsafety>1的时候才有用
二、pymysql方式实现链接池
方式1、每次操做都要连接数据库,连接次数过多
#!usr/bin/env python # -*- coding:utf-8 -*- import pymysql from flask import Flask app = Flask(__name__) # 方式一:这种方式每次请求,反复建立数据库连接,屡次连接数据库会很是耗时 # 解决办法:放在全局,单例模式 @app.route('/index') def index(): # 连接数据库 conn = pymysql.connect(host="127.0.0.1",port=3306,user='root',password='123', database='pooldb',charset='utf8') cursor = conn.cursor() cursor.execute("select * from td where id=%s", [5, ]) result = cursor.fetchall() # 获取数据 cursor.close() conn.close() # 关闭连接 print(result) return "执行成功" if __name__ == '__main__': app.run(debug=True)
方式2、不支持并发
#!usr/bin/env python # -*- coding:utf-8 -*- import pymysql from flask import Flask from threading import RLock app = Flask(__name__) CONN = pymysql.connect(host="127.0.0.1",port=3306,user='root',password='123', database='pooldb',charset='utf8') # 方式二:放在全局,若是是单线程,这样就能够,可是若是是多线程,就得加把锁。这样就成串行的了 # 不支持并发,也很差。全部咱们选择用数据库链接池 @app.route('/index') def index(): with RLock: cursor = CONN.cursor() cursor.execute("select * from td where id=%s", [5, ]) result = cursor.fetchall() # 获取数据 cursor.close() print(result) return "执行成功" if __name__ == '__main__': app.run(debug=True)
三、DButils模块使用
方式3、因为上面两种方案都不完美,因此得把方式一和方式二联合一下(既让减小连接次数,也能支持并发)全部了方式三,须要
导入一个DButils模块
基于DButils实现的数据库链接池有两种模式:
模式一:为每个线程建立一个连接(是基于本地线程来实现的。thread.local),每一个线程独立使用本身的数据库连接,该线程关闭不是真正的关闭,本线程再次调用时,仍是使用的最开始建立的连接,直到线程终止,数据库连接才关闭
注: 模式一:若是线程比较多仍是会建立不少链接,模式二更经常使用
#!usr/bin/env python # -*- coding:utf-8 -*- from flask import Flask app = Flask(__name__) from DBUtils.PersistentDB import PersistentDB import pymysql POOL = PersistentDB( creator=pymysql, # 使用连接数据库的模块 maxusage=None, # 一个连接最多被重复使用的次数,None表示无限制 setsession=[], # 开始会话前执行的命令列表。如:["set datestyle to ...", "set time zone ..."] ping=0, # ping MySQL服务端,检查是否服务可用。# 如:0 = None = never, 1 = default = whenever it is requested, 2 = when a cursor is created, 4 = when a query is executed, 7 = always closeable=False, # 若是为False时, conn.close() 实际上被忽略,供下次使用,再线程关闭时,才会自动关闭连接。若是为True时, conn.close()则关闭连接,那么再次调用pool.connection时就会报错,由于已经真的关闭了链接(pool.steady_connection()能够获取一个新的连接) threadlocal=None, # 本线程独享值得对象,用于保存连接对象,若是连接对象被重置 host='127.0.0.1', port=3306, user='root', password='123', database='pooldb', charset='utf8' ) @app.route('/func') def func(): conn = POOL.connection() cursor = conn.cursor() cursor.execute('select * from tb1') result = cursor.fetchall() cursor.close() conn.close() # 不是真的关闭,而是假的关闭。 conn = pymysql.connect() conn.close() conn = POOL.connection() cursor = conn.cursor() cursor.execute('select * from tb1') result = cursor.fetchall() cursor.close() conn.close() if __name__ == '__main__': app.run(debug=True)
模式二:建立一个连接池,为全部线程提供链接,使用时来进行获取,使用完毕后在放回到链接池。
PS:假设最大连接数有10个,其实也就是一个列表,当你pop一个,人家会在append一个,连接池的全部的连接都是按照排队的这样的方式来连接的。
连接池里全部的连接都能重复使用,共享的, 即实现了并发,又防止了连接次数太多
import time import pymysql import threading from DBUtils.PooledDB import PooledDB, SharedDBConnection POOL = PooledDB( creator=pymysql, # 使用连接数据库的模块 maxconnections=6, # 链接池容许的最大链接数,0和None表示不限制链接数 mincached=2, # 初始化时,连接池中至少建立的空闲的连接,0表示不建立 maxcached=5, # 连接池中最多闲置的连接,0和None不限制 maxshared=3, # 连接池中最多共享的连接数量,0和None表示所有共享。PS: 无用,由于pymysql和MySQLdb等模块的 threadsafety都为1,全部值不管设置为多少,_maxcached永远为0,因此永远是全部连接都共享。 blocking=True, # 链接池中若是没有可用链接后,是否阻塞等待。True,等待;False,不等待而后报错 maxusage=None, # 一个连接最多被重复使用的次数,None表示无限制 setsession=[], # 开始会话前执行的命令列表。如:["set datestyle to ...", "set time zone ..."] ping=0, # ping MySQL服务端,检查是否服务可用。# 如:0 = None = never, 1 = default = whenever it is requested, 2 = when a cursor is created, 4 = when a query is executed, 7 = always host='127.0.0.1', port=3306, user='root', password='123', database='pooldb', charset='utf8' ) def func(): # 检测当前正在运行链接数的是否小于最大连接数,若是不小于则:等待或报raise TooManyConnections异常 # 不然 # 则优先去初始化时建立的连接中获取连接 SteadyDBConnection。 # 而后将SteadyDBConnection对象封装到PooledDedicatedDBConnection中并返回。 # 若是最开始建立的连接没有连接,则去建立一个SteadyDBConnection对象,再封装到PooledDedicatedDBConnection中并返回。 # 一旦关闭连接后,链接就返回到链接池让后续线程继续使用。 # PooledDedicatedDBConnection conn = POOL.connection() # print(th, '连接被拿走了', conn1._con) # print(th, '池子里目前有', pool._idle_cache, '\r\n') cursor = conn.cursor() cursor.execute('select * from tb1') result = cursor.fetchall() conn.close() conn = POOL.connection() # print(th, '连接被拿走了', conn1._con) # print(th, '池子里目前有', pool._idle_cache, '\r\n') cursor = conn.cursor() cursor.execute('select * from tb1') result = cursor.fetchall() conn.close() func()
import pymysql
import threading
from DBUtils.PooledDB import PooledDB, SharedDBConnection
POOL = PooledDB(
creator=pymysql, # 使用连接数据库的模块
maxconnections=20, # 链接池容许的最大链接数,0和None表示不限制链接数
mincached=2, # 初始化时,连接池中至少建立的空闲的连接,0表示不建立
maxcached=5, # 连接池中最多闲置的连接,0和None不限制
#maxshared=3, # 连接池中最多共享的连接数量,0和None表示所有共享。PS: 无用,由于pymysql和MySQLdb等模块的 threadsafety都为1,全部值不管设置为多少,_maxcached永远为0,因此永远是全部连接都共享。
blocking=True, # 链接池中若是没有可用链接后,是否阻塞等待。True,等待;False,不等待而后报错
maxusage=None, # 一个连接最多被重复使用的次数,None表示无限制
setsession=[], # 开始会话前执行的命令列表。如:["set datestyle to ...", "set time zone ..."]
ping=0,
# ping MySQL服务端,检查是否服务可用。# 如:0 = None = never, 1 = default = whenever it is requested, 2 = when a cursor is created, 4 = when a query is executed, 7 = always
host='192.168.11.38',
port=3306,
user='root',
passwd='apNXgF6RDitFtDQx',
db='m2day03db',
charset='utf8'
)
def connect():
# 建立链接
# conn = pymysql.connect(host='192.168.11.38', port=3306, user='root', passwd='apNXgF6RDitFtDQx', db='m2day03db')
conn = POOL.connection()
# 建立游标
cursor = conn.cursor(pymysql.cursors.DictCursor)
return conn,cursor
def close(conn,cursor):
# 关闭游标
cursor.close()
# 关闭链接
conn.close()
def fetch_one(sql,args):
conn,cursor = connect()
# 执行SQL,并返回收影响行数
effect_row = cursor.execute(sql,args)
result = cursor.fetchone()
close(conn,cursor)
return result
def fetch_all(sql,args):
conn, cursor = connect()
# 执行SQL,并返回收影响行数
cursor.execute(sql,args)
result = cursor.fetchall()
close(conn, cursor)
return result
def insert(sql,args):
"""
建立数据
:param sql: 含有占位符的SQL
:return:
"""
conn, cursor = connect()
# 执行SQL,并返回收影响行数
effect_row = cursor.execute(sql,args)
conn.commit()
close(conn, cursor)
def delete(sql,args):
"""
建立数据
:param sql: 含有占位符的SQL
:return:
"""
conn, cursor = connect()
# 执行SQL,并返回收影响行数
effect_row = cursor.execute(sql,args)
conn.commit()
close(conn, cursor)
return effect_row
def update(sql,args):
conn, cursor = connect()
# 执行SQL,并返回收影响行数
effect_row = cursor.execute(sql, args)
conn.commit()
close(conn, cursor)
return effect_row
保证每一个线程都只有本身的一份数据,在操做时不会影响别人的,即便是多线程,本身的值也是互相隔离的
没用线程以前:
import threading import time class Foo(object): def __init__(self): self.name = None local_values = Foo() def func(num): time.sleep(2) local_values.name = num print(local_values.name,threading.current_thread().name) for i in range(5): th = threading.Thread(target=func, args=(i,), name='线程%s' % i) th.start()
打印结果:
1 线程1 0 线程0 2 线程2 3 线程3 4 线程4
用了本地线程以后
import threading import time # 本地线程对象 local_values = threading.local() def func(num): """ # 第一个线程进来,本地线程对象会为他建立一个 # 第二个线程进来,本地线程对象会为他建立一个 { 线程1的惟一标识:{name:1}, 线程2的惟一标识:{name:2}, } :param num: :return: """ local_values.name = num # 4 # 线程停下来了 time.sleep(2) # 第二个线程: local_values.name,去local_values中根据本身的惟一标识做为key,获取value中name对应的值 print(local_values.name, threading.current_thread().name) for i in range(5): th = threading.Thread(target=func, args=(i,), name='线程%s' % i) th.start()
打印结果:
1 线程1 2 线程2 0 线程0 4 线程4 3 线程3
一、原理猜测
a、相似于本地线程 建立Local类: { 线程或协程惟一标识: { 'stack':[request],'xxx':[session,] }, 线程或协程惟一标识: { 'stack':[] }, 线程或协程惟一标识: { 'stack':[] }, 线程或协程惟一标识: { 'stack':[] }, } b、上下文管理的本质 每个线程都会建立一个上面那样的结构, 当请求进来以后,将请求相关数据添加到列表里面[request,],之后若是使用时,就去读取 列表中的数据,请求完成以后,将request从列表中移除 c、关系 local = 小华={ 线程或协程惟一标识: { 'stack':[] }, 线程或协程惟一标识: { 'stack':[] }, 线程或协程惟一标识: { 'stack':[] }, 线程或协程惟一标识: { 'stack':[] }, } stack = 强哥 = { push pop top } 存取东西时都要基于强哥来作 d、最近看过一些flask源码,flask仍是django有些区别 - Flask和Django区别? - 请求相关数据传递的方式 - django:是经过传request参数实现的 - Flask:基于local对象和,localstark对象来完成的 当请求刚进来的时候就给放进来了,完了top取值就好了,取完以后pop走就好了 问题:多个请求过来会不会混淆 -答: 不会,由于,不只是线程的,仍是协程,每个协程都是有惟一标识的: from greenlent import getcurrentt as get_ident #这个就是来获取惟一标识的
二、flask的request和session设置方式比较新颖,若是没有这种方式,那么就只能经过参数的传递。
flask是如何作的呢?
- 本地线程:是Flask本身建立的一个线程(猜测:内部是否是基于本地线程作的?) vals = threading.local() def task(arg): vals.name = num - 每一个线程进来都是打印的本身的,只有本身的才能修改, - 经过他就能保证每个线程里面有一个数据库连接,经过他就能建立出数据库连接池的第一种模式 - 上下文原理 - 相似于本地线程 - 猜测:内部是否是基于本地线程作的?不是,是一个特殊的字典
#!/usr/bin/env python # -*- coding:utf-8 -*- from functools import partial from flask.globals import LocalStack, LocalProxy ls = LocalStack() class RequestContext(object): def __init__(self, environ): self.request = environ def _lookup_req_object(name): top = ls.top if top is None: raise RuntimeError(ls) return getattr(top, name) session = LocalProxy(partial(_lookup_req_object, 'request')) ls.push(RequestContext('c1')) # 当请求进来时,放入 print(session) # 视图函数使用 print(session) # 视图函数使用 ls.pop() # 请求结束pop ls.push(RequestContext('c2')) print(session) ls.push(RequestContext('c3')) print(session)
三、Flask内部实现
#!/usr/bin/env python # -*- coding:utf-8 -*- from greenlet import getcurrent as get_ident def release_local(local): local.__release_local__() class Local(object): __slots__ = ('__storage__', '__ident_func__') def __init__(self): # self.__storage__ = {} # self.__ident_func__ = get_ident object.__setattr__(self, '__storage__', {}) object.__setattr__(self, '__ident_func__', get_ident) def __release_local__(self): self.__storage__.pop(self.__ident_func__(), None) def __getattr__(self, name): try: return self.__storage__[self.__ident_func__()][name] except KeyError: raise AttributeError(name) def __setattr__(self, name, value): ident = self.__ident_func__() storage = self.__storage__ try: storage[ident][name] = value except KeyError: storage[ident] = {name: value} def __delattr__(self, name): try: del self.__storage__[self.__ident_func__()][name] except KeyError: raise AttributeError(name) class LocalStack(object): def __init__(self): self._local = Local() def __release_local__(self): self._local.__release_local__() def push(self, obj): """Pushes a new item to the stack""" rv = getattr(self._local, 'stack', None) if rv is None: self._local.stack = rv = [] rv.append(obj) return rv def pop(self): """Removes the topmost item from the stack, will return the old value or `None` if the stack was already empty. """ stack = getattr(self._local, 'stack', None) if stack is None: return None elif len(stack) == 1: release_local(self._local) return stack[-1] else: return stack.pop() @property def top(self): """The topmost item on the stack. If the stack is empty, `None` is returned. """ try: return self._local.stack[-1] except (AttributeError, IndexError): return None stc = LocalStack() stc.push(123) v = stc.pop() print(v)