币圈网报道:
根据CNBC周六的一份报告,美国各地的工人正在秘密使用AI来加速任务,处理工作量,甚至平衡多个工作,而他们的老板也不知道。
随着Chatgpt,Gemini和Bing AI接管工作场所,员工正在依靠这些工具来更快地完成工作,而公司则争先恐后地弄清楚如何调节AI使用,然后才能失控。
大型科技公司在聘请员工的同时将数十亿美元投入人工智能,迫使那些仍在薪资中的人更少做更多的事情,因为首席信息安全官员(CISO)正在努力跟上,因为机密的公司数据被送入公共AI聊天机器人,可能会暴露商业秘密。
员工秘密地转向AI工具,因为它们很有用。据报道,来自麦肯锡全球研究所的迈克尔·楚(Michael Chui)告诉CNBC,工人在公司效力之前始终采用技术,将其与员工在公司提供之前如何开始使用个人计算机和手机的方式进行比较。
“即使它没有受到批准或祝福,人们也发现[聊天机器人]有用”说。 “人们在企业说的很久之前就购买了手机。
问题? AI从用户输入中学习,以及诸如Chatgpt和Gemini商店之类的公共模型,并处理他们收到的数据。这意味着敏感的公司信息现在可能位于AI数据库中,可以使用该模型的人访问。
Chui说:“如果您是一家公司,则不希望您的员工提示具有机密信息的公开聊天机器人。” “因此,您可以提供技术手段,可以在其中许可该软件并就数据去向或不进行的可执行法律协议。”
CISO已经被网络攻击,自动化要求和恒定的AI安全威胁。许多公司仍然没有AI政策,这意味着员工正在与公司不拥有的聊天机器人共享内部信息。
将信息存储在基于云的平台上的企业已经执行安全策略,但是AI改变了游戏。现在未能实施AI安全措施的公司现在有可能暴露关键数据。
一些企业试图通过建立私人AI模型或雇用公司来开发安全的公司特定聊天机器人来重新获得控制。 Ceipal首席执行官Sameer Penakalapati表示,创建自定义AI平台是防止机密数据泄漏成公共AI工具的最佳方法之一。
如果公司建立自己的AI助手,则可以在阻止未经授权的数据共享的同时访问公司批准的信息。即使雇用外部AI公司创建自定义GPT模型也比允许员工使用无限制的AI工具更安全。
Microsoft正在研究可自定义的AI模型对于公司以及Ceipal和Beamery Talentgpt等平台已经可以自动化人力资源流程。但是建造私人AI是昂贵的,而且大多数企业都没有资源来做到这一点。
Penakalapati说:“我总是告诉人们,确保您拥有基于公正和准确的数据提供信息的技术。” “因为这项技术不是偶然创建的。”
AI系统功能基于他们收到的数据,这意味着差的数据管理可能会造成严重的业务风险。如果公司不控制AI所学的知识,它可能会传播错误信息,引入偏见,甚至做出法律风险的决定。
员工不仅在使用AI来提高效率,而且还在使用它来生存。从未有过多个工作的美国人人数从未有所更高,AI正在帮助他们管理工作量。
美国就业市场是残酷的。比以往任何时候都多的工人只是为了负担必需品,数字达到创纪录的高点:
由于工资无法跟上通货膨胀,工人正在依靠AI来平衡增加的工作量,侧面障碍和第二个工作。 AI可以自动化重复任务,生成报告,起草电子邮件,并帮助员工在劳动力中维持生计,要求增加同一薪水的产出。
加密大都会学院:想在2025年养活您的钱吗?在即将到来的WebClass中学习如何使用Defi进行操作。保存您的位置