这家企业管理平台供应商今天宣布了一套新的生成式人工智能功能,旨在“提高生产力”和“简化业务流程”。很快,Workday的客户将能够自动将已签署的合同与Workday中的合同进行比较,以找出差异,创建个性化的知识管理文章,并生成服务采购的工作声明。
尽管生成式人工智能目前很流行,但并不意味着它必须应用于每个应用领域。但试图告诉这一点给Workday似乎不太容易。
这些公告是在Workday Rising上宣布的,这是Workday每年一度的客户大会,今年在旧金山举行。
其中一些新增功能似乎确实有用,或者最坏的情况下也无害。但有一个让本记者有些担忧:由AI生成的员工工作计划。
“经理们将能够快速创建员工的优势和成长领域的摘要,从存储的数据中提取,包括绩效评估、员工反馈、贡献目标、技能、员工情感等等,”Workday在新闻稿中写道。
我认为这方面存在一些问题。
研究表明,文本分析的人工智能可能对那些使用超出“正常”范围的表达和俚语的人存在偏见(即大多数人之外的表达方式)。
例如,一些训练用于检测毒性的AI模型会将非洲裔美国人通用英语(AAVE),一些黑人美国人使用的非正式语法,视为不成比例地“有毒”。而黑人美国人并不是唯一受到影响的少数族裔群体。宾夕法尼亚州立大学的一个研究团队最近发现,社交媒体上关于残疾人的帖子可能会被常用的公众情感和毒性检测模型标记为更负面或有毒。
那么,如果Workday的模型由于文本表达方式而无法理解绩效评估或员工反馈的微妙之处,导致模型对某人得出错误结论,会怎么样呢?这是一个很好的问题。
然后,还有“员工情感”的问题。
研究已经表明,从句子中检测情感的文本分析系统可能会在种族、民族和性别方面显示偏见,例如将黑人与更多的负面情绪如愤怒、恐惧和悲伤联系起来。
针对这些问题,Workday表示,它“透明地介绍了其AI模型的设计方式”(尽管不愿透露用于训练其模型的确切数据),并构建了工作计划功能,以向管理人员展示“数据输入如何影响优势或成长领域”。
Workday的AI和机器学习负责人Shane Luke通过电子邮件告诉TechCrunch:“与其他Workday生成式AI用例和我们的人机协作方法一样,鼓励用户将结果视为强有力的初稿,他们应该进行编辑、反复推敲并最终定稿。”希望使用Workday的管理人员能听从这一建议。
至于Workday的其他新生成式AI功能,在表面上问题较小。
Workday中的AI生成的工作描述利用平台中已存储的信息,包括岗位所需的技能和工作地点的详细信息,以简化编写工作列表的过程。本记者最初担心Workday可能会在未经员工同意或知情的情况下对HR员工的拷贝进行描述生成模型的训练,但Luke向我保证情况并非如此。
他说:“我们不会对专门的工作描述数据进行训练。”“Workday的客户可以控制和配置其数据用于AI和机器学习目的,包括数据是否用于培训目的……我们在产品字段中明确指出了哪些数据用于生成,鼓励用户将回应视为初稿并运用自己的判断。”
此外,Workday将很快能够根据客户的迟付情况或频繁迟付程度,自动生成“逾期通知”,并提供关于通信语气的建议。(Luke表示,财务团队将能够使用这一功能批量自动化信函。)采购领导者将能够获得有关包括在采购合同中的相关条款的建议,具体取决于项目类型、项目位置和交付物类型。
有了上述由生成式AI驱动的合同分析功能,Workday的客户将会收到合同中潜在错误的警告,并获得建议的更正。而知识文章生成功能将使用户能够撰写像经理讨论要点和公司视频中的要点这样的文章,并提供语气和长度的建议。(Workday强调,用户完全可以忽略这些建议。)
开发者Copilot标志着Workday首次涉足生成编码领域,为其用于创建运行在Workday上的定制应用程序的平台Workday Extent引入了文本转代码的功能。嵌入在Workday应用程序构建器中的开发者Copilot提供了“具有上下文意识”的代码建议,包括精选内容和搜索结果,类似于GitHub Copilot和Amazon CodeWhisperer等生成代码服务。
此外,借助ChatGPT的流行,Workday正在试点推出多种会话式AI体验。Luke表示,它们将以自然的方式“增强用户与信息和任务互动的能力”,利用生成式AI的功能,如摘要、搜索和保持上下文。
Luke说:“我们认为,如果负责任地使用,生成式AI可以推动有影响力的业务成果。”“从根本上说,我们的AI方法侧重于人机协作。用户始终是最终的决策者和调解员。”
Workday预计新的生成式AI功能将在未来6到12个月内推出。不幸的是,它没有提供比这更具体的时间表。