如此说来,哈佛训练有素的数学家将对冲基金量化为对冲基金。
数十年来,大量数据一直是公司的流行语,与企业家和媒体一起无休止地咀嚼大量数据的前景和危险。
与Cathy O'Neil相比,很少有人能够更好地处理这些类型的查询。她是哈佛大学的数学家,在读完博士学位后前往对冲基金工作。她最近写了一本书,讲述了她自己的经历,《数学毁灭性武器:大数据如何增加不平等并危及民主》。
在其中,她很少讨论有关大信息的担忧-不仅会受到我们的偏见的影响,而且实际上还会使它们合法化和放大。她认为,算法可以完全是种族主义的。
大数据,大误解
在对《哈佛公报》的一次有趣的采访中,“ O'Neil解释了她在金融危机期间在基金中运作的经验如何使她眼前一个事实,即以前被她视为中立和非政治性的信息可能是这样的事实”武器化。”她听说,数学可能被迫撒谎。
但是,问题远比单纯的不良宗教行为者有意操纵计算以找到所需结果(例如,比抵押贷款支持证券所保证的评级更高)要深得多。更大的问题是,即使是量化交易公司及其诚实行事的公司也可能遭受严重伤害。奥尼尔(O'Neil)描述:
“大量数据本质上是一种区分赢家和输家的方法。大量数据可以对人们进行描述。它对-消费者行为,公共记录中容易获得的一切建议,选票,人口统计资料都有各种建议。它对人们进行了描述,并将人们形成了赢家。和失败者有多种表现方式。您目前是否像选民一样具有说服力,或者您不像选民一样具有说服力?您是否有可能接触到发薪日预告广告,或者您目前不受此发薪日贷款广告的影响?”
好的,您可能会说,没有人喜欢被贴上失败者的标签,而是用较少的煽动性语言聊聊整个过程,您可能会看到分类客户如何可以节省公司大量的工作量,以及客户很多烦人的,无关紧要的营销活动。但这错过了一个事实,那就是不仅要使用大量数据来选择要向购物者提供的优惠券,还是要向特定选民邮寄的传单。
奥尼尔(O'Neil)断言,“公众并不“经常理解(算法)有多有害”,这是因为我们通常不受所有算法中最糟糕的约束:那些算法使人们无法获得工作,因为它们没有通过人格测验,即那些被判犯有高度累犯危险的人,将对刑事被告人判处更长的徒刑,甚至对学校教师进行随机惩罚的人。”
对于洒落式分拣机而言,这种分拣过程并不总是双赢的。它可能是对抗性的,有利于企业或机构,并损害了所描述的人员。奥尼尔(O'Neil)建议,许多男人和女人都掩盖了这一现实。
掩饰偏见
更糟糕的是,在这些对抗性和重大风险的情况下,量化指标和公司经常对我们用来组建人员的计算产生偏见。用来分隔“获胜者”和“冠军”(或您想使用的任何形式标签)的因素,可能包括人们所知道的容易受到偏见影响的性别和种族等特征,因此实际上非常脆弱,您在法律上禁止使用它们来制定许多最重要的决定。
您不能说您没有给家庭提供贷款,因为他们是黑人,没有面对诉讼。但是许多算法,即使是经过同行评审的贷款市场所采用的算法,也总是部分基于种族来得出结论。我们把它们装扮成一副数学贴面。
奥尼尔说,通过批评,她希望开始一个关于“算法成为种族主义者意味着什么”的对话。
她总结说,大数据具有巨大的潜力。经过深思熟虑地使用,算法实际上可以从结论中消除个别偏见。但是您必须意识到纠正它的困难。许多人,例如许多量子化学人,并非如此。