2016 年,联合国宣布访问互联网是一项人权。
这一决定是基于这样的理解,即互联网是每个人都可以负担得起的信息和表达自己的工具。
该决议引发了围绕基础设施接入的讨论,包括安装或更新光纤电缆,或在内乱和其他紧急情况期间允许不间断接入。
虽然这些都是有效且重要的观点,但互联网不仅仅是电线和屏幕,访问的信息可以根据算法进行更改。
随着互联网融入我们的生活,它现在是我们社会基础设施的一部分(类似于医疗或教育服务)。
有据可查的是,医疗和教育领域存在偏见,包括获得护理和护理质量,但搜索结果呢?
他们公平吗?他们代表我们周围的世界吗?还是它们弊大于利?
算法中有什么?
在数字营销中,“算法”是一个每天都会被抛出的术语,无论有人是否理解它的含义。每个平台都有一个(或多个),我们的工作是尝试满足它们。
算法是系统执行计算时遵循的过程。
这个过程接受输入并利用公式、规则或其他解决问题的操作来产生输出。
对于搜索,这意味着输入到搜索框中的查询是输入,而 SERP(搜索引擎结果页面)是输出。
这是对正在发生的事情的高度简单化的解释。谷歌将多种算法与 AI(人工智能)和机器学习相结合。
剖析整个系统将远远超出我的范围,也超出了本文的目的。
SERP 中的金丝雀
作为一名女性,我对网站、政策和整个社会的偏见并不陌生。
每天我都带着一撮盐环游世界。调查搜索结果中的潜在偏差是我一段时间以来一直感兴趣的事情,我在 2021 年开始研究这个话题。
一个名为“Give Us Features, Not Flowers”的原创研究项目(完全披露:我帮助进行)检查了专业摄影师在社交和搜索环境中的性别偏见。
测试了几个不分性别的查询,例如“最佳摄影 Instagram 帐户”或“最佳摄影师”。
结果?
尽管女性占专业摄影师的 50%,但在丰富的结果和第一页的内容中,女性作为专业摄影师的比例远远低于男性。
谁应对这些偏见负责?写文章的作者?奖励那些页面的搜索引擎?向客户推荐文章的 SEO 专家?
我的直觉反应是责怪创建算法的人。
虽然这在一定程度上是正确的,但这并不是故事的全部,而且根本不公平。
偏见植根于我们现有的社会结构,融入我们的文化、政府以及我们与周围世界的互动。
PageRank算法有偏差吗?
2011 年发表的研究已经对 PageRank 的公平性提出了质疑。
模型表明,随着网络的发展,排名靠前的网站的稳定性会变得更加稳定,剩下的网站就会争吵不休。
同行评审期刊 Nature 于 2022 年 2 月发表了一篇文章,研究了 PageRank 算法,看看它是否会引入或放大偏见。
用最简单的术语来说,研究人员创建了五个具有不同程度同质性的潜在社会模型(“与相似他人联系的趋势”)。
每个模型包含 20 个节点,但我们将它们称为网站。然后为每个网站分配一个页面排名,并作为社会中多数或少数的一部分。
不平等是使用基尼系数(衡量不平等的统计分析)来衡量的,以了解个人如何根据平等分布得分。通过计算热门搜索结果中少数族裔的百分比来衡量不平等。
他们的发现表明,PageRank 的算法可以根据使用的模型减少、复制或放大偏差。
在具有高度同质性的模型中,占主导地位的声音延续了这些观点和偏见,而少数群体的代表性不足。
另一方面,当多数群体是嗜异性的(倾向于在不同群体中聚集)时,少数群体的代表人数过多。
这为未来围绕算法的潜在干预或减少偏见的研究奠定了一些基础。
文化与谷歌图片搜索结果的交集
大量研究表明,算法可能是有偏见的。如前所述,PankRank 可以利用这些偏见来放大或减少它们,但算法并不是单独行动的。
在谷歌的例子中,不仅有多种算法在起作用,还有人工智能和机器学习。所有这些元素都通过我们(人类)的互动不断发展。
今年发表的另一项研究调查了谷歌图片搜索结果中是否存在社会性别不平等(通过本地化搜索算法)。
研究人员绘制了按国家/地区划分的性别不平等(基于全球性别差距指数)以及在使用每个国家/地区各自的语言搜索“人”时出现在 Google 图片搜索结果中的男性百分比(使用 VPN 访问本地结果)。
性别不平等较大的国家看到更多男性形象出现在性别中立的关键词“人”中。他们声称这是社会规范和算法输出之间的联系。
研究的第二部分研究了这些有偏见的结果如何影响个人的决策。
参与者查看了来自低不平等和高不平等国家的谷歌图片结果的屏幕截图,并被问及有关性别和职业的问题。
跳过细节(尽管我认为这篇文章值得一读),结果表明算法中存在的文化偏见可以(并且确实)影响个人决策。
当参与者看到来自低不平等国家的图像结果时,与高不平等国家的结果相比,他们的结果更加平等,结果强化了性别偏见。
社会性别不平等的程度反映在搜索算法中,这让我想知道到底有多少。然后,这些元素的组合通过每次使用影响个人感知。
谁对 SERP 中的偏差负责?
我通过问这个问题开始了这段旅程,希望得到一个简单的答案。
不幸的是,没有一个,因为我们都对搜索结果中的偏见负责。从最初的编码员到作家,到 SEO 专业人士和链接建设者,以及我们所处的社会、文化和环境。
想象一下您每天与之交互的所有算法。如果接触这些算法会影响你对世界的感知,那么它就会变得混乱,解开多个输入的字符串。
我们怎样才能让它变得更好?
作为一个绝望的乐观主义者,我不能给你留下如此沉重的负担。让我们开始讨论如何使搜索和内容成为更具包容性的空间。
研究 PageRank 偏见的研究人员讨论说,虽然同性恋网络正在推动代表性的不平等,但少数族裔可以通过战略网络克服这一问题。
这不是一个合理的解决方案,所以他们建议实施 DPAH(别担心,我不会详细说明!)。
这种模式将消除少数人与多数人建立联系的需要。
另一项研究提出了基于心理学的干预措施,因为他们得出的结论是,算法中反映了社会性别不平等。他们呼吁结合我们对心理学和社会的理解的更合乎道德的人工智能。
通常,SEO 专业人士最关心的是如何吸引算法,而不是质疑它们的公平性或平等性,或者我们可能如何使有害偏见长期存在。
通过使用 AI 驱动的软件来解释 AI 驱动的算法,我们应该开始质疑我们工作的道德组成部分。
目前,搜索结果并不能准确地代表一个公平的世界。
作为 SEO 专家、内容创建者和营销人员,我们在复制不公平的内容、提高对已经很大的声音的可见度以及延续我们的本地文化偏见方面发挥着重要作用。
以下是我必须帮助创建更公平的搜索环境的其他一些建议。
- 停止复制有偏见的内容——用不同的声音分享你的平台,并围绕你的利基创造新的叙述。
- 审核 AI 内容——我不会拒绝所有 AI 内容,但它应该由人工审核,因为它有可能陷入相同的模式。
- 算法审核——与我们审核网站的方式类似,可以审核算法。有资源来审计潜在的偏见和审计影响评估。
- 支持教育——支持或自愿加入为女性、有色人种或其他边缘化群体提供编码、软件或技术培训的组织。向技术 SEO 中的女性大喊成为这些空间之一。
- 多语言资源——以英语以外的语言创建搜索引擎优化和其他营销资源,以允许不同的声音和观点。
- 创建偏见较少的算法和人工智能——说起来容易做起来难,但谷歌人工智能去年宣布了 KELM,这在事实核查和减少偏见方面具有一定的潜力
- 停止搜索的高档化——反竞争就是反商业。它抑制了新的和多样化的声音,所以我希望在搜索领域看到更多公司和更多种类的结果。
我不打算就这个话题做出最终决定,因为这种对话应该在 Twitter 线程、会议、咖啡和我们的日常工作中继续进行。
请分享您对此主题的想法或问题,以便我们开始讨论创建不损害社会的搜索体验。