在硅谷互联网大厂里,文化多样性开始向“牢房帮会”演化吗?
前Glean和谷歌搜索引擎初创团队组员Deedy
Das在X上分享一则相关Meta工作经历的文章,引起相关美国硅谷互联网大厂中“牢房帮会”情况的探讨:
“在科技有限公司里,有一些上百名职工的单位,是由中国或印度高级副总裁领导干部,这些部门基本上100%是单一职业,以致于不说英语……如同监狱里面帮会一样。”每个人心照不宣。
po主在帖子里提及了自身小伙伴们在Meta实习中经历的事情,并发表了自己的疑惑:
『Meta 中都是中国人吗?
我有几个小伙伴们在 Meta 见习,她们团队人员通常是中国人,相互之间都说普通话。
其中一个好朋友能流畅地讲普通话,但另一个从来不说,因而感觉被排挤,由于精英团队只能在和他交流时使用英文。
最先,我就是美籍华裔,因此发了这个帖子并不是出自于种族问题,但是需要说普通话才能更好的融入集体,这一点要我不太舒服。
这就是在 Menlo Park 和 Bellevue
地域。别的地方也是这样的吗?Meta大部分软件开发精英团队是这样吗?我还在微软公司和亚马逊见习的朋友 Bellevue
地域并没有相近亲身经历。』
原帖截图中出现两根评价。
网民NewChameleon说,
『团队里若是有某一 X 国籍的主管,那样 X 国藉的人就会居多,这儿的 X
能是中国人、欧洲人、白种人等。这样的事情算不上长期存在,但比较常见。』
网民FeistyDoughnut4600则更加一针见血地指出:
『所以这就像监狱里面帮会一样,懂了。』
Deedy分享这个帖子时另附的留言也帮“牢房帮会”这词刮了关键:
『在各类科技有限公司中,有一些机构有超出100名员工,由中国人或印度裔高级副总裁领导干部,这些组织几乎是单一民族的,他甚至不说英语。
怎么会这样?毕竟大家都怕高声说出自己的想法。“如同监狱里面帮会一样。”』
Deedy还填补表明:
『假如说,她们自己并不积极清除人群外的人,新侯选人会自己挑选不加入这些组织。
我并不认同刻意的在实施中注入多元性,但是现在这种行为太糟糕了。这些组织像一家迷你型公司一样运行,拥有自己内部结构这个小政冶。』
网友的评论出奇地一致:
如同迷你型公司一样,里边甚至还有内部结构权力斗争。一切大企业就是这个样子。
你聘请怎么样的人就得到了什么样的成绩,包含他们的能力和表达。这一组织自身所选择的。
有什么好大惊小怪的呢?印度,大家甚至还会依照地域构成团体。特伦甘纳语精英团队或泰米尔语团队非常普遍。
美国硅谷DEI文化艺术的大起大落
美国硅谷有着来自全国各地的优秀人才,各种各样的语言文化变成美国硅谷科技公司特色之一。硅谷的企业也认识到,不同背景、专业技能工作经验的专业人才针对驱动创新与业务取得成功的必要性。能够吸引和留存专业人才,这种目前正在积极营造一个多元性的工作场所,让全体员工觉得自己被接纳、重视并能够充分发挥发展潜力。
DEI文化艺术从而应时而生。DEI是”Diversity, Equity, and
Inclusion”的简称,意指”多元性、公平性和多元性”。DEI文化艺术的关键是让所有人都觉得被热烈欢迎、被重视和重视。
但是,近些年DEI在硅谷遭受了一波“起起落落”。
在2020年的“黑人的命也是命”(Black Lives
Matter)抗议活动以后,各企业都服务承诺要促进其成员的性别和人种多元性。很多公司陆续请来了历史上第一个顶尖多元化和宽容官。据就业网站Indeed的信息,在乔冶·佛洛依德(George
Floyd)被害之后的三个月里,DEI的招聘职位猛增了123%。
好景不长。在风靡高科技行业的裁员潮下,“多元性”、“多样化”这种标识被无情的实际撕掉了个破碎:
据Indeed数据信息,到2023年年里,与一年前同比增加,与DEI有关的职位发布急剧下降44%。这一数字与2020年至2021年期内形成了鲜明的对比,那时候这种岗位增强了近30%。
例如谷歌和Meta等巨头都削减了DEI建设规模。为硅谷科技企业DEI新项目提供服务某业内人士认为,一些公司的DEI费用预算减少力度达到90%。
AI时代的发展DEI
打破的不仅是服务承诺,还有很多利益关系。
Hella Social Impact是一家给予DEI学习培训服务的企业,其创始人Stefania
Pomponi直率地对顾客表明:“职工就是你们企业最珍贵的财产,DEI项目计划的减少可能会影响你的业务流程”。她是指有关多元化精英团队造成更高一些绩效考核结果的各类科学研究。
时下,这种科技有限公司正在推进十年来最大的一个技术性变化——人工智能技术。人工智能技术以先前无法预知的速率迅猛发展,DEI工作中如今比以往更为重要。必须多元化的角度去保证AI产品没有成见,并且能体现他所为客户服务的实际需求。
以图像处理为例子。谷歌和Facebook俩家互联网巨头都曾吵过架嘲笑。Google Photos
将黑人的图片标为“黑猩猩”,Facebook将视频里的黑种人识别为“灵长类”。
该类优化算法成见与AI关键技术之一人工智能的技术内容相关。例如,机器学习算法应用的数据集假如含有来源于如今的社会的偏见,那样优化算法便会领悟这种成见。也就是说,假如AI种族歧视、歧视女性,很大一部分原因是现实中本就存有种族歧视、歧视女性的情况。
即便根据两端对齐让AI合乎伦理道德与普世价值观,AI都是“心照不宣”。