我foo > bar需要在a的〜1MM行上评估几十个条件(例如),DataFrame最简洁的编写方式是将这些条件存储为字符串列表并创建DataFrame布尔结果(每行一行)每个条件记录x一栏)。( 未 评估用户输入。)
foo > bar
DataFrame
在寻求过早优化的过程中,我试图确定是否应该在内部编写这些条件进行评估DataFrame(例如,df.eval("foo > bar")还是像下面那样将其留给python)eval("df.foo > df.bar")
df.eval("foo > bar")
eval("df.foo > df.bar")
根据有关评估性能的文档:
您不应将eval()用于简单表达式或涉及小型DataFrame的表达式。实际上,对于较小的表达式/对象,eval()比普通的Python要慢许多个数量级。一条好的经验法则是,只有当DataFrame的行数超过10,000时才使用eval()。
能够使用该df.eval("foo > bar")语法会很好,因为我的列表更具可读性,但是我从来没有找到评估它的速度不慢的情况。该文档显示了pandas.eval()比python更快的位置eval()(符合我的经验)的示例,但没有比DataFrame.eval()(列出为“实验性”)更快的示例。
pandas.eval()
eval()
DataFrame.eval()
例如,DataFrame.eval()在一个很大的表达式上,一个不简单的表达式仍然是明显的失败者DataFrame:
import pandas as pd import numpy as np import numexpr import timeit someDf = pd.DataFrame({'a':np.random.uniform(size=int(1e6)), 'b':np.random.uniform(size=int(1e6))}) %timeit -n100 someDf.eval("a**b - a*b > b**a - b/a") # DataFrame.eval() on notional expression %timeit -n100 eval("someDf['a']**someDf['b'] - someDf['a']*someDf['b'] > someDf['b']**someDf['a'] - someDf['b']/someDf['a']") %timeit -n100 pd.eval("someDf.a**someDf.b - someDf.a*someDf.b > someDf.b**someDf.a - someDf.b/someDf.a") 100 loops, best of 3: 29.9 ms per loop 100 loops, best of 3: 18.7 ms per loop 100 loops, best of 3: 15.4 ms per loop
那么DataFrame.eval()仅仅是简化输入的好处,还是我们可以确定使用这种方法实际上更快的情况?
还有什么其他指导方针何时使用eval()?(我知道这pandas.eval()不支持整套操作。)
pd.show_versions() INSTALLED VERSIONS ------------------ commit: None python: 3.5.1.final.0 python-bits: 64 OS: Windows OS-release: 7 machine: AMD64 processor: Intel64 Family 6 Model 63 Stepping 2, GenuineIntel byteorder: little LC_ALL: None LANG: en_US pandas: 0.18.0 nose: 1.3.7 pip: 8.1.2 setuptools: 20.3 Cython: 0.23.4 numpy: 1.10.4 scipy: 0.17.0 statsmodels: None xarray: None IPython: 4.1.2 sphinx: 1.3.1 patsy: 0.4.0 dateutil: 2.5.3 pytz: 2016.2 blosc: None bottleneck: 1.0.0 tables: 3.2.2 numexpr: 2.5 matplotlib: 1.5.1 openpyxl: 2.3.2 xlrd: 0.9.4 xlwt: 1.0.0 xlsxwriter: 0.8.4 lxml: 3.6.0 bs4: 4.4.1 html5lib: None httplib2: None apiclient: None sqlalchemy: 1.0.12 pymysql: None psycopg2: None jinja2: 2.8 boto: 2.39.0
那么DataFrame.eval()的好处仅仅是在简化输入方面,还是我们可以确定使用此方法实际上更快的情况?
DataFrame.eval()的源代码表明,它实际上只是创建要传递给pd.eval()的参数:
def eval(self, expr, inplace=None, **kwargs): inplace = validate_bool_kwarg(inplace, 'inplace') resolvers = kwargs.pop('resolvers', None) kwargs['level'] = kwargs.pop('level', 0) + 1 if resolvers is None: index_resolvers = self._get_index_resolvers() resolvers = dict(self.iteritems()), index_resolvers if 'target' not in kwargs: kwargs['target'] = self kwargs['resolvers'] = kwargs.get('resolvers', ()) + tuple(resolvers) return _eval(expr, inplace=inplace, **kwargs)
其中_eval()只是pd.eval()的别名,该别名在模块的开头导入:
from pandas.core.computation.eval import eval as _eval
所以,什么可以做用df.eval(),你 可以 做pd.eval()+一些额外的线条处理事情。从目前的情况来看,df.eval()从没有严格比快pd.eval()。但这并不意味着在任何情况下都不会df.eval()像一样好pd.eval(),但是编写起来更方便。
df.eval()
pd.eval()
但是,在玩弄%prun魔术之后,似乎通过bydf.eval()进行的调用df._get_index_resolvers()给该df.eval()方法增加了相当多的时间。最终,_get_index_resolvers()最终调用的.copy()方法numpy.ndarray,这最终使事情变慢。同时,pd.eval()确实会numpy.ndarray.copy()在某个时候进行呼叫,但是所花费的时间可以忽略不计(至少在我的机器上)。
%prun
df._get_index_resolvers()
_get_index_resolvers()
.copy()
numpy.ndarray
numpy.ndarray.copy()
长话短说,似乎df.eval()比pd.eval()在引擎盖下要慢得多,因为它只是pd.eval()在幕后加了一些额外的步骤,而这些步骤是不平凡的。