Granola 的隐私缺陷:默认暴露注释

Granola 是一款由 AI 驱动的笔记应用程序,存在一个重大安全缺陷 - 任何有链接的人都可以查看您的私人笔记,并且除非您选择退出,否则它们将用于内部 AI 培训。
Granola 是一款流行的人工智能笔记应用程序,它存在一个令人担忧的隐私缺陷,用户需要注意。尽管该公司声称您的笔记“默认为私人”,但实际上,任何有链接的人都可以查看您的格兰诺拉麦片笔记。此外,除非您手动选择退出,否则该公司会将这些笔记用于内部人工智能培训。
格兰诺拉麦片将自己定位为“为连续会议的人们提供的人工智能记事本”。它与您的日历集成,自动捕获会议音频并使用人工智能生成项目符号注释。然后,用户可以编辑人工智能生成的笔记,邀请协作者查看它们,并利用 Granola 的人工智能助手回答有关内容的问题。
但是,该应用程序的默认隐私设置还有很多不足之处。 拥有可共享链接的任何人都可以查看格兰诺拉麦片注释,无论您是否有意共享该注释。这意味着,如果您不小心将链接发送给了错误的人,或者链接被拦截,您的私人会议记录可能会被泄露。
更令人担忧的是 Granola 使用这些笔记进行内部人工智能培训。除非您主动选择退出此功能,否则该公司可能会分析您的私人笔记内容以改进其人工智能模型。这会带来严重的隐私和安全问题,因为会议中讨论的敏感信息可能会在您不知情或未经您同意的情况下被使用。
为了保护您的隐私,Granola 用户应立即检查其隐私设置,并确保禁用“通过链接共享笔记”选项。此外,您可能需要查看 Granola 的数据使用政策,并考虑选择退出任何可能泄露您私人笔记的 AI 培训。
随着人工智能驱动的生产力工具变得越来越普遍,公司优先考虑用户隐私和安全至关重要。 Granola 的隐私问题清楚地提醒我们,用户必须努力了解和控制其数据的使用方式,即使是他们最信任的应用程序。
The Verge 关于此问题的报告强调了审查新兴技术隐私实践的重要性。随着人工智能驱动工具的使用不断增长,开发人员和用户必须共同努力,以确保这些强大的工具在设计和部署时充分考虑到用户的隐私和安全。
来源: The Verge


