memcached&redis性能测试

转自:http://www.iigrowing.cn/memcached-redis-xing-neng-ce-shi.html 

 

一、Memcached

1.1、memcached简介

Memcached 是一个高性能的分布式内存对象缓存系统,用于动态Web应用以减轻数据库负载。它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提供动态、数据库驱动网站的速度。Memcached基于一个存储键/值对的hashmap。其守护进程(daemon )是用C写的,但是客户端可以用任何语言来编写,并通过memcached协议与守护进程通信。但是它并不提供冗余(例如,复制其hashmap条目);当某个服务器S停止运行或崩溃了,所有存放在S上的键/值对都将丢失。

Memcached由Danga Interactive开发,其最新版本发布于2010年,作者为Anatoly Vorobey和Brad Fitzpatrick。用于提升LiveJournal . com访问速度的。LJ每秒动态页面访问量几千次,用户700万。Memcached将数据库负载大幅度降低,更好的分配资源,更快速访问。

1.2、Memcached是如何工作的

Memcached的神奇来自两阶段哈希(two-stage hash)。Memcached就像一个巨大的、存储了很多<key,value>对的哈希表。通过key,可以存储或查询任意的数据。客户端可以把数据存储在多台memcached上。当查询数据时,客户端首先参考节点列表计算出key的哈希值(阶段一哈希),进而选中一个节点;客户端将请求发送给选中的节点,然后memcached节点通过一个内部的哈希算法(阶段二哈希),查找真正的数据(item)。举个列子,假设有3个客户端1, 2, 3,3台memcached A, B, C:Client 1想把数据”tuletech”以key “foo”存储。Client 1首先参考节点列表(A, B, C),计算key “foo”的哈希值,假设memcached B被选中。接着,Client 1直接connect到memcached B,通过key “foo”把数据”tuletech”存储进去。Client 2使用与Client 1相同的客户端库(意味着阶段一的哈希算法相同),也拥有同样的memcached列表(A, B, C)。于是,经过相同的哈希计算(阶段一),Client 2计算出key “foo”在memcached B上,然后它直接请求memcached B,得到数据”tuletech”。

1.3、memcached提供的操作

Memcached的客户端api接口提供了如下的方法存储和获取缓存数据,并且这节方法在不同的客户端都是一致的:

get(key):读取数据从缓存中,如果数据存在的话返回值,否则返回Null,nil,underfined。

Set(key,value [,expiry]):写入缓存数据value,如果key已经存在了就更新value值,否则就增加一个新的key/value对,如果设定了expiry值,超过设定expiry时间后键值对就失效,时间单位是秒。

Add(key,value, [,expiry]):添加键值对到缓存如果key不存在的话。

Replace(key ,value [,expiry]:替换已经存在的键值对。

Deleted(key [, time]):从缓存中删除键,如果提供一个时间,在这段时间内这个键是处于阻塞状态。

二、安装部署Memcached服务

2.1、安装libevent库

memcached使用libevent库实现网络连接服务,理论上可以处理无限多的连接,但是它和Apache不同,它更多的时候是面向稳定的持续连接的,所以它实际的并发能力是有限制的。在保守情况下memcached的最大同时连接数为200,这和Linux线程能力有关系,这个数值是可以调整的。 关于libevent可以参考相关文档。memcachd有自己的内存分配算法和管理方式,它和共享内存没有关系,也没有共享内存的限制,通常情况下,每个memcached进程可以管理2GB的内存空间,如果需要更多的空间,可以增加进程数。

libevent下载地址:http://down1.chinaunix.net/distfiles/libevent-2.0.16-stable.tar.gz

# wget  http://down1.chinaunix.net/distfiles/libevent-2.0.16-stable.tar.gz

然后是正常步骤的解压安装:

# tar zxvf lilbevent-2.0.16-stable.tar.gz

# cd libevent-2.0.16-stable

# ./configure –prefix = /usr/local/libvent-2.0.16-stable

# make

#make install

测试libevent是否安装成功:

# ls –al /usr/local/libevent-2.0.16-stable/lib | grep libevent

修改配置文件把libevent库加入ld.so.conf文件

# nano /etc/ld.so.conf 加入/usr/local/libevent-2.0.16-stable/lib

运行 ldconfig否则运行memcached会报错,提示找不到so文件

2.2、安装memcached:

memcached下载地址:http://memcached.googlecode.com/files/memcached-1.4.13.tar.gz

# wget  http://memcached.googlecode.com/files/memcached-1.4.13.tar.gz

#tar memcached-1.4.13.tar.gz

# cd memcached-1.4.13

# ./configure

# make &make install

测试是否成功安装memcached:

技术分享

2.3、编译安装magent代理:

magent是一款开源的memcached代理服务器软件,magent是解决memcached的单点故障的解决方案;magent的hash算法:magent采用的是:Consistent Hashing原理,Consistent Hashing如下所示:首先求出memcached服务器(节点)的哈希值, 并将其配置到0~232的圆(continuum)上。 然后用同样的方法求出存储数据的键的哈希值,并映射到圆上。 然后从数据映射到的位置开始顺时针查找,将数据保存到找到的第一个服务器上。 如果超过232仍然找不到服务器,就会保存到第一台memcached服务器上。

技术分享
编译安装magent:

# wget http://memagent.googlecode.com/files/magent-0.5.tar.gz

# mkdir magent

# cd magent/

# tar zxvf magent-0.5.tar.gz

# cd magent/

# nano magent.c 加入如下宏定义:

(# ifndef SSIZE_MAX

# define SSIZE__MAX 32767

# endif)否则编译会报错:未指定最大值

magent.c:729: error: ‘SSIZE_MAX’ undeclared (first use in this function)

#/sbin/ldconfig

# sed -i “s#LIBS = -levent#LIBS = -levent -lm#g” Makefile

# make

# cp magent  /usr/bin/magent

测试magent代理服务器是否安装成功:

root@ubuntu:~# magent

please provide -s “ip:port” argument

memcached agent v0.5 Build-Date: Feb 21 2012 16:39:44

Usage:

-h this message

-u uid

-g gid

-p port, default is 11211. (0 to disable tcp support)

-s ip:port, set memcached server ip and port

-b ip:port, set backup memcached server ip and port

-l ip, local bind ip address, default is 0.0.0.0

-n number, set max connections, default is 4096

-D don’t go to background

-k use ketama key allocation algorithm

-f file, unix socket path to listen on. default is off

-i number, set max keep alive connections for one memcached server, default is 20

-v verbose

三、memcached集群测试

3.1、测试环境

1.Memcached提供了很多客户端api,可供java,c,c++,python…的客户端的调用,在这里我们用python这门语法优雅功能强大的语言进行此次测试。

首先安装python lib库,运行如下命令:

# sudo  apt-get install python

自动安装完成后,默认版本为2.7.2。

测试是否正确安装:

技术分享

接着安装python-memcached-latest.tar.gz.这是memcached的客户端api,安装好了之后直接用python操作调用memcached。

下载地址:ftp://ftp.tummy.com/pub/python-memcached/python-memcached-latest.tar.gz

安装如下:

# tar –zxvf python-memcached-latest.tar.gz

# cd python-memcached-latest

# python setup.py install

测试安装是否成功:

技术分享

若 import memcache没有报错则导入无误。

2.memcached环境已经部署完毕,接下来分别在四台虚拟linux服务器上运行测试任务:

分别在四台台主机上启动配置相同的memcached服务:

技术分享技术分享

技术分享技术分享

在主机192.168.1.108上启动magent代理服务器:

技术分享其中-s代表主服务器,-b 192.168.1.111:11211为备份服务器。

我为此写了一个python客户端程序(Memcached.py)调用magent代理往三个主服务器写入和读取数据。

3.2、测试脚本源码

”’

Created on 2012-2-22

@author: Administrator

”’

”’

multiprocess :

current instance

# Memcached –d –u root –m100 –l 192.168.1.108 –p 11211

# Memcached –d –u root –m100 –l 192.168.1.109 –p 11211

# Memcached –d –u root –m100 –l 192.168.1.110 –p 11211

# Memcached –d –u root –m100 –l 192.168.1.111 –p 11211

magent proxy

# magent  –u root –n 4096 –l 192.168.1.108 –p 11212 –s 192.168.1.108:11211

–s 192.168.1.109:11211 –s 192.168.1.101:11211 –b 192.168.1.111:11211

”’

if __name__ == ‘__main__‘:

import memcache

key = None

value = None

m = []

# 用代理节点实现数据写入和读取

magent = memcache.Client([‘192.168.1.108:11212′],debug = 1)

for i in range(8):    #测试向服务器写入8个数据

key = ‘key’+str(i)

value = ‘value’+str(i)

magent.set(key,value)

m.append(key)

server_one = memcache.Client([‘192.168.1.108:11211′],debug = 1

print(“server_one store list:”)

for keys in m:

values =server_one.get(keys)

print(values)

server_two = memcache.Client([‘192.168.1.109:11211′],debug = 1)

print(“server_two store list:”)

for keys in m:

values = server_two.get(keys)

print(values)

server_three = memcache.Client([‘192.168.1.110:11211′],debug = 1)

print(“server_three store list:”)

for keys in m:

values = server_three.get(keys)

print(values)

back_up_server = memcache.Client([‘192.168.1.111:11211′],debug = 1)

print(“back_up_server store list:”)

if back_up_server is not None:

print  “backup is not none”

for keys in m:

values = back_up_server.get(keys)

print(values)

运行程序:

# python Memcache.py

server_one store list:

None

value1

None

None

value4

None

None

value7

server_two store list:

value0

None

value2

None

None

value5

None

None

server_three store list:

None

None

None

value3

None

None

value6

None

back_up_server store list:

value0

value1

value2

value3

value4

value5

value6

value7

3.3、测试结论

测试结果和预期的一样,magent通过consistant hase算法根据key值的不同分别把value写入主服务器,如果备份服务器只有一个的话,把所以key_value映射到同一个备份服务器,相同的,我们可以启动几个备份服务器,这时候magent根据consistent hase 算法和写入主服务器一样的方式分别写入备份服务器。

当用命令杀死(kill)一个memcache主服务进程之后,如果通过magent代理节点取数据不会出现问题,结果和上面的一样。但是当我们把kill掉的memcache复活,再尝试取结果则出现故障,因为magent不会再从备份节点取数据,而是直接去复活的那个节点拿数据,而恢复的节点内无数据故出现读取None值的问题,这个问题有待解决。

二、Redis

2.1、Redis简介

Redis: REmote DIctionary Server(Redis) 是一个由Salvatore Sanfilippo写的key-value存储系统。Redis提供了一些丰富的数据结构,包括lists, sets, ordered sets 以及hashes 还有和Memcached一样的strings结构.Redis当然还包括了对这些数据结构的丰富操作。redis是一个高性能的key-value数据库。redis的出现,很大程度补偿了memcached这类key-value存储的不足,在部分场合可以对关系数据库起到很好的补充作用。redis提供了Python,Ruby,Erlang,PHP等客户端,使用很方便Redis的优点:

性能极高 Redis能支持超过 100K+每秒的读写频率。

丰富的数据类型 – Redis支持二进制案例的 Strings, Lists, Hashes, Sets 及 Ordered Sets 数据类型操作。

原子性Redis的所有操作都是原子性的,同时Redis还支持对几个操作全并后的原子性执行。

丰富的特性 Redis还支持 publish/subscribe, 通知, key 过期等等特性.

2.2、Redis常用的操作

Redis提供了string,set,list数据类型及操作:

strings数据类型及操作:

和memcached一样提供set,get操作。

Set key ‘value’

Get key

Set集合数据类型及操作:

SADD key member — 增加元素

SREM key member — 删除元素

SCARD key — 返回集合大小

SISMEMBER key member — 判断某个值是否在集合中

SINTER key1 key2 … keyN — 获取多个集合的交集元素

SMEMBERS key — 列出集合的所有元素

Redis的set是string类型的无序集合。set元素最大可以包含(2的32次方)个元素。

list数据类型及操作:

LPUSH key string — 将某个值加入到一个key列表头部

LPUSH key string — 将某个值加入到一个key列表末尾

LLEN key — 列表长度

LRANGE key start end — 返回列表中某个范围的值,相当于mysql里面的分页查询那样 LTRIM key start end — 只保留列表中某个范围的值

LINDEX key index — 获取列表中特定索引号的值,要注意是O(n)复杂度

LSET key index value — 设置列表中某个位置的值

LPOP key 抛出表头值

RPOP key — 和上面的LPOP一样,就是类似栈或队列的那种取头取尾指令,可以当成消息队列来使用了.

2.3、安装配置Redis

进入Redis管网: http://redis.io/download

# wegt  http://redis.googlecode.com/files/redis-2.4.4.tar.gz

# tar zxvf redis-2.4.2.tar.gz
# cd redis-2.4.2
# make
# make install
# cp redis.conf /etc/

第二步:修改配置

#vi /etc/redis.conf

我是按照下面这个博客上面的指导配置的:

http://blog.csdn.net/21aspnet/article/details/6960757

2.3.1、下载安装redis-python客户端

# sudo apt-get install python-redis 其实就是一个python文件(模块)。

检测是否安装成功成功:

技术分享Import redis没有报错就说明成功安装。

启动并测试redis服务器:

技术分享

启动成功,现在使用redis存储key-value.

技术分享

存取成功.

2.3.2、配置redis分布式、主从同步

Redis和memcached一样实现了服务器的集群,在redis上是主从同步。

配置slave服务器如下:

我是在同一台主机上修改配置文件,当然多机环境也一样。

首先,复制redis.conf文件,命名为redis-slave.conf:

技术分享

编辑:

# nano /etc/redis-slave.conf修改如下:

技术分享

绑定从服务器端口:

技术分享

绑定ip地址:127.0.0.1

设置从服务器的备份DB:

技术分享

添加主服务器ip:port确认从服务器监听哪台主服务。

技术分享

配置完成保存退出。

启动主从、服务器成功:

技术分享

在python脚本中测试是否主从一致:

技术分享

得到想要的值,配置redis的主从服务器成功。这里只是实现了简单的主从同步,redis的功能很全也很强大,分布式集群的实现需要深入学习后再实施。

三、Memcahced、Redis做mysql数据库缓存

3.1、安装mysql数据库

Ubuntu中安装mysql的方式很多,如在如源码编辑安装、deb包安装等。这次是我进行进行二进制版本安装的。

安装步骤:

#  http://downloads.mysql.com/archives.php   — 二进制mysql下载链接

#  mysql-5.1.54-ubuntu.tar.gz  –下载安装文件。

# tar –zxvf mysql-5.1.54-ubuntu.tar.gz –C /usr/local

# cd /usr/local

# mv myssql-5.1.54-ubuntu.tar.gz mysql  -将此目录命名为mysql

# cd mysql

# groupadd mysql

# useradd –g mysql mysql

# chown -R mysql .[注意小数点]—让该用户mysql对该目录用户使用权

chgrp -R mysql .

bin目录很重要,里面包含了mysql客户端和服务器,把它添加到环境变量中

nano /etc/profile –进入编辑状态

添加如下行

export PATH=$PATH:/usr/local/mysql/bin

完成后按住Ctrl+O进行保存,然后再按住Ctrl+x 退出

在scripts/下有个安装脚本,我们用它安装mysql

scripts/mysql_install_db –user=mysql –basedir=/usr/local/mysql –datadir=/usr/local/mysql/data

–第一个mysql:指是所属用户

–第二个mysql:指安装路径

–basedir:指安装路径

–datadir:指数据存放路径

让root拥有此目录的权限,当然除data外

chown -R root .  –目录所属root用户

chown -R mysql data –数据所属mysql用户

bin/mysqld_safe –user=mysql &  –启动mysql

3.设置开机自动启动。

每次敲mysqld_safe –user=mysql &很烦。接下来让它开机自动运行。

在support-files里有个mysql.server脚本,这就是启动脚本,只要把它放到系统启动自动运行目录里,就可以让mysql自动运行。

切换到系统启动脚本目录

cd /etc/init.d –自动启动目录

拷贝mysql.server并重命名为mysql

cp /usr/local/mysql/support-files/mysql.server mysql –拷贝文件并重命名

chmod +x /etc/init.d/mysql –让其具有运行权限

cd /etc/rc2.d

建立init.d/mysql的符号链接

ln -s /etc/init.d/mysql /etc/rc2.d/S20mysql

好了,全部完成,重启(reboot)。

3.2、安装MySQL-python库

要使用python连接mysql数据库需要一个MySQLdb,这个就好比java的jdbc,是一个用python写的api 库,下面是安装配置过程:

下载地址:http://ncu.dl.sourceforge.net/project/mysql-python/mysql-python/1.2.3/MySQL-python-1.2.3.tar.gz

# tar –zxvf MySQL-python-1.2.3.tar.gz

# cd MySQL-python-1.2.3

#在编译安装之前先把Python开发包安装好这个很重要!不然gcc报错,如下:

# sudo apt-get install python-dev

安装完成后继续执行如下命令:

MySQL-python-1.2.3# python setup.py build

MySQL-python-1.2.3# python setup.py install

安装完测试如下:

技术分享

导入MySQLdb无误,说明安装成功了。

3.3、测试过程

3.3.1、redis vs memcached

首先测试在单线程下memcahced和redis缓存读写速度并分析数据得到结论,再测试在多线程下模拟并发时memcached/redis缓存读取数据的情况,所有的测试数据都由随机数函数控制产生,运行环境一样:

Configration:

Cpu:双核Intel® Atom™ CPU D525 @1.80GHz,内存2G,100M网卡OS:ubuntu11.10-server-x64

测试键/值长度为32 bytes

分别启动一个memcached、redis服务进程:

Memcached  –d –m268 –uzdxhave –l192.168.1.109 –p11211

Redis-server /etc/redis.conf

技术分享

技术分享

Redis配置图:

技术分享

测试结果,源代码如下

在单线程情况下:

技术分享

图3.3.1

技术分享

图3.3.2

由上图3.3.2和3.3.2可以看出,在单线程条件下,相同的写入和读取数据次数 memcached的写入和读取时间都要优于redis缓存而且两者性能都比较稳定,没有出现连接服务器失败的情况。

接下来是在多线程情况下的测试,流程如下:在固定写入数量(2000)的条件下,开启多个线程同时连接(每个线程2000次写入/读取)memcached、redis服务器,统计结果如下:

技术分享

图3.3.3

我在这次实验用的是多线程下模拟并发的环境,从图3.3.3实验数据和图表看来memcached表现很稳定,写入和读取时间相差不是很大,但是redis在低并发的时候表现比的比memcached好,当并发数超过10,就出现连接不稳定,连接不上服务器的情况,而memcached很适合那种高性能多并发的环境下。

结论:memcached是一个高性能多并发的缓存系统,适合简单的追求高性能,有独立服务器,和大内存的环境下,然而redis性能也不错,它提供更多的对内存数据的操作方式,可以自定义内存数据格式,适合有特殊需求,可备份内存数据,而它自身的支持分布式的更多功能还在开发之中。

3.3.2搭载memcached/redis缓存的mysql性能测试

测试流程:首先,在mysql数据库上新建一个数据库,数据库名test,在里面创建一个mytable表,表字段为num varcahr(50),val varchar(50):

技术分享

接下来在单线程下分别对其读、写速度进行测试,写入数据结果图如下:

技术分享

图3.3.4

从图3.2.4可以看出在没有搭载缓存服务器的情况下,mysql_set(草绿色)的写入性能是最好的,而且稳定行很高,因为当有新数据写入时是没有经过两次写操作(一次写入缓存),而是直接写入后台数据库,所以性能是最高的。

当把memcached/redis当做mysql的缓存服务器后,写入数据用时基本是单独不用缓存的两倍多一点,而且,redis(红色)做为缓存写入性能比memcached的要好。

接下来是各服务器读取数据的统计图表,如下图3.3.5:

技术分享

图3.3.5

如上图3.3.5所示,在读取数据少于2000的时候,mysql_get,mem_mysql_get,redis_mysql_get的性能都差不多,随着读取数据量的增大,mysql_get性能直线下降,到了用户不能忍受的地步,而搭载了缓存的mysql,在读取数据少于10000的情况下读取性能非常稳定,而且速度比较理想。Memcached配合mysql和redis配合mysql在少于15000的读取数据量的情况下,性能差不多,但随着数据量的增大,redis-mysql相比memcached-mysql的性能下降的比较严重。

3.4、实验结论

在此次实验环境,在单线程条件下,单独测试memcached&redis服务器的性能,相同的写入和读取数据次数memcached的写入和读取性能都要优于redis缓存。在多线程模拟多并发的测试中memcached性能也较redis稳定。

然而,当memecached做为数据库缓存,读取数据速度是三者中最快的,而redis做为数据库缓存写入数据的性能略比memcached的高,搭载缓存服务器后测试mysql的写入速度下降严重,因为数据经过了两次写入操作,但是读取速度明显加快。在写入数据时客户端编码性能有待提高,在客户端实现的时候,这些应该是可以优化的。

3.5、测试源代码

#!/bin/env python/mysql-memcached

from threading import Thread

import sys

import memcache

class Workers(Thread):

def __init__(self, c, times, gs):

Thread.__init__(self)

self.c = c

self.times = times

self.gs = gs

self.completiontime = 0

self.name = c

def run(self):

import MySQLdb

from hashlib import md5

from time import time

startTime = time()

for i in range(self.times):

conn = MySQLdb.connect(host=’localhost’, user=’root’, passwd=’star’, db=’test’, port=3306)

mem = memcache.Client([‘192.168.1.109:11211′],debug=1)

cursor = conn.cursor()

hashval = md5(str(self.c) + str(i)).hexdigest()

if self.gs == ‘set‘:

if mem.get(hashval):

pass

else:

cursor.execute(‘insert into mytable values(“‘+hashval+‘”,”‘+hashval+‘”)’)

mem.set(hashval,hashval,60)

else:

row = mem.get(hashval)

if row:

#  print “get from memcached”

#  row = mem.get(hashval)

pass

else:

#  print “get from mysql”

cursor.execute(‘select * from mytable where num = “‘ + hashval + ‘”‘)

row = cursor.fetchone()

conn.commit()

cursor.close()

conn.close()

endTime = time()

self.completiontime = endTime – startTime

#chars = ‘1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20’.split(‘,’)

threads = []

for char in range(int(sys.argv[3])):

print char

gs = ‘get’

if sys.argv[1] == ‘set‘:

gs = ‘set’

timee = int(sys.argv[2])

t = Workers(char, timee, gs)

threads.append(t)

t.start()

for t in threads:

t.join()

print ‘Got ‘, t.name, t.gs, t.completiontime

#!/bin/env python/mysql

from threading import Thread

import sys

class Workers(Thread):

def __init__(self, c, times, gs):

Thread.__init__(self)

self.c = c

self.times = times

self.gs = gs

self.completiontime = 0

self.name = c

def run(self):

import MySQLdb

from hashlib import md5

from time import time

startTime = time()

for i in range(self.times):

conn = MySQLdb.connect(host=’localhost’, user=’root’, passwd=’star’, db=’test’, port=3306)

cursor = conn.cursor()

hashval = md5(str(self.c) + str(i)).hexdigest()

if self.gs == ‘set‘:

cursor.execute(‘insert into mytable values(“‘+hashval+‘”,”‘+hashval+‘”)’)

else:

cursor.execute(‘select * from mytable where num = “‘ + hashval + ‘”‘)

row = cursor.fetchone()

conn.commit()

cursor.close()

conn.close()

endTime = time()

self.completiontime = endTime – startTime

#chars = ‘1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20’.split(‘,’)

threads = []

for char in range(int(sys.argv[3])):

print char

gs = ‘get’

if sys.argv[1] == ‘set‘:

gs = ‘set’

times = int(sys.argv[2])

t = Workers(char, times, gs)

threads.append(t)

t.start()

for t in threads:

t.join()

print ‘Got ‘, t.name, t.gs, t.completiontime

#!/bin/env python/mysql-redis

from threading import Thread

import sys

import redis

class Workers(Thread):

def __init__(self, c, times, gs):

Thread.__init__(self)

self.c = c

self.times = times

self.gs = gs

self.completiontime = 0

self.name = c

def run(self):

import MySQLdb

from hashlib import md5

from time import time

startTime = time()

for i in range(self.times):

conn = MySQLdb.connect(host=’localhost’, user=’root’, passwd=’star’, db=’test’, port=3306)

red = redis.Redis(‘localhost’)

cursor = conn.cursor()

hashval = md5(str(self.c) + str(i)).hexdigest()

if self.gs == ‘set‘:

if red.get(hashval):

#           print “key-value in redis_memery”

pass

else:

cursor.execute(‘insert into mytable values(“‘+hashval+‘”,”‘+hashval+‘”)’)

red.set(hashval,hashval)

else:

row = red.get(hashval)

if row :

pass

#          print “get from redis”

# row = red.get(hashval)

else:

print “get from mysql”

cursor.execute(‘select * from mytable where num = “‘ + hashval + ‘”‘)

row = cursor.fetchone()

conn.commit()

cursor.close()

conn.close()

endTime = time()

self.completiontime = endTime – startTime

#chars = ‘1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20’.split(‘,’)

threads = []

for char in range(int(sys.argv[3])):

print char

gs = ‘get’

if sys.argv[1] == ‘set‘:

gs = ‘set’

times =int(sys.argv[2])

t = Workers(char, times, gs)

threads.append(t)

t.start()

for t in threads:

t.join()

print ‘Got ‘, t.name, t.gs, t.completiontime

郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。