简介
在进行程序设计过程中,经常需要对某些函数、某些程序片断从开始运行到运行结束所耗费的时间进行一些量化。这种量化实际上就是计算时间差。
获取函数耗时情景如下:
lua
function time_used()
--开始计时
-- do something at here.
--结束计时
--时间差:开始计时与结束计时之间所耗费的时间
return
end
时间差计算
通常是以秒、毫秒、微妙、纳秒为单位进行时间差的计算。但是由于计算机时间系统的时钟并不是特别准确,所以得出的时间差总体来说都是有误差的。
计算时间差有很多方法,现列出其中3中:
- os.time方法 (精度:秒级,不推荐适用)
- os.clock方法 (精度:微秒级,在我电脑上不工作,不推荐使用,跨平台可能也有问题)
- socket.gettime方法 (精度:微妙级,推荐)
实际上,在普通个人PC上,微秒级别的时间差都是不准确的,只能作为一个参考。毫秒级别的时间差基本上就够用了。
os.clock不好使的问题,需要进一步查明原因。
试验
试验代码中,通过调用 shell的sleep函数,分别使程序睡眠1.51秒,并分别用上述3种方法计算时间差。
lua
local os = require("os")
local socket = require "socket"
local s = os.time()
os.execute("sleep 1.51")
local e = os.time()
print("time span (os.time): ", (e-s).." Second")
local s = os.clock()
os.execute("sleep 1.51")
local e = os.clock()
print("time span (os.clock): ", (e-s) * 1000)
print("os.clock return", s, e)
local start_time = socket.gettime()
os.execute("sleep 1.51")
local end_time= socket.gettime()
local use_time = (end_time - start_time )
print("time span (socket): "..use_time .." Second")
print("time span (socket): "..(use_time*1000) .." MilliSecond")
print("time span (socket): "..(use_time*1000000) .." MicroSecond")
运行截图:
通过运行截图,可以发现:
同样是睡眠1.51秒,
os.time计算的时间差是2秒,这是因为os.time返回时间的精度就是秒,差值必然也是秒。这个差值适用于长时间运行的程序。
os.clock不工作。
socket.gettime计算的时间差是1529851微妙,也就是1529毫秒,1.52秒。