Scholly创始人Chris Gray将其奖学金搜索应用出售给学生贷款机构Sallie Mae后,担任副总裁职务。一年后,他因对用户数据隐私问题提出异议而遭解雇。Gray随即提起诉讼并向SEC提交举报,指控Sallie Mae通过非银行子公司Sallie.com出售包括未成年人在内的用户个人数据,涉及姓名、年龄、种族等信息,且未充分告知用户。Sallie Mae否认上述指控,称其"毫无依据"。
每周有约9亿人使用ChatGPT,但许多用户并未意识到自己分享了多少个人信息。隐私专家警告,这些数据未来可能被以不可预见的方式使用。本文提供五种管理ChatGPT个人信息的方法:关闭模型训练权限、删除历史对话、使用临时聊天模式、管理记忆功能,以及彻底删除账户。此外,还可直接询问ChatGPT它掌握了哪些关于你的信息。
微软旗下GitHub近期在未发布正式公告的情况下,悄然为命令行工具(CLI)默认启用了匿名遥测数据收集功能。收集的数据包括设备ID、操作系统、命令名称等元数据,官方称此举旨在了解功能使用情况并优化产品,同时提升对AI代理的支持。用户可通过设置环境变量`GH_TELEMETRY=false`或执行`gh config set telemetry disabled`命令选择退出。
LinkedIn拥有超过10亿商业用户,掌握大量可识别个人信息,包括可能涉及宗教与政治倾向的敏感数据。一家欧洲小公司发起"BrowserGate"活动,指控LinkedIn在用户不知情的情况下扫描其设备已安装软件,并将数据传输给第三方。LinkedIn否认部分指控,但拒绝回应其是否仅将数据用于声明目的。网络安全专家建议企业CIO将此事件作为契机,重新审视数据策略,并考虑在敏感网络中限制LinkedIn访问。
Palantir的联邦数据平台原本旨在帮助英国NHS改善医疗服务并减少延误,但最新报告显示,NHS员工因伦理、隐私和信任担忧而抵制使用该系统。尽管该公司在2023年获得3.3亿英镑合同,但一些医护人员表示同事们正在抵制使用这一系统,部分护理委员会甚至推迟实施。英国医学协会呼吁医生停止使用该系统,理由包括对Palantir与美国政府关系的担忧。
GitHub宣布从4月24日起,将使用Copilot Free、Pro和Pro+用户的交互数据来训练和改进AI模型,数据包括输入输出、代码片段等七类信息。用户可在账户设置中选择退出,但默认为同意。值得注意的是,这些数据不仅供GitHub使用,还将与包括微软在内的关联公司共享。企业版用户不受此更新影响。开发者社区对此反应不一,有人批评默认同意机制,也有人赞赏GitHub的透明度。
据瑞典媒体报道,Meta的AI智能眼镜用户可能在不知情的情况下,将私密视频和敏感财务信息分享给欧盟以外的内容审核员。肯尼亚的AI数据标注员工透露,他们在工作中看到了用户的裸体、如厕和性行为视频,以及信用卡号码等敏感信息。Meta的服务条款允许人工审核用户数据以训练AI模型,但这种做法可能违反欧盟GDPR法规关于个人数据处理透明度的要求。
沃尔玛在美国地区不接受任何形式的NFC支付,包括Apple Pay、Google Pay等。主要原因包括:推广自家的Walmart Pay二维码支付系统和Scan and Go服务;通过自有支付平台收集用户购物数据,建立客户画像用于精准营销,而Apple Pay的隐私保护机制阻碍了这种数据收集。虽然接受Apple Pay不会产生额外费用,但沃尔玛仍故意禁用支付终端的NFC功能,强迫用户使用其自有支付方案。
LinkedIn宣布从11月3日起将抓取欧盟、加拿大、香港等地区用户的资料和公开帖子来训练AI模型。微软子公司LinkedIn还将与关联公司分享这些数据用于个性化广告投放。用户个人资料详情、动态活动数据都在抓取范围内,但私信不包括在内。受影响地区用户有一周时间通过设置中的数据隐私选项退出AI训练和广告数据共享功能。
Anthropic对用户数据处理政策进行重大调整,要求所有Claude用户在9月28日前决定是否允许其对话数据用于AI模型训练。此前该公司不使用消费者聊天数据进行模型训练,现在希望利用用户对话和编程会话来训练AI系统,未选择退出的用户数据保留期将延长至五年。新政策适用于Claude免费版、专业版和最高版用户,但不影响企业客户。
最近OpenAI用户震惊地发现他们的搜索记录出现在Google搜索中。实际上OpenAI明确告知了这一做法,但多数用户未仔细阅读条款。虽然OpenAI已移除相关功能,但因版权诉讼的法院命令,所有用户对话仍被保留。Google的Gemini等AI服务也在记录用户信息以提供个性化服务。这些数据可能在安全漏洞中泄露,用户应谨慎提问敏感话题。
AI正在渗透生活各个层面,从手机应用到搜索引擎。许多AI工具以工作需要为借口,要求获取用户大量个人数据访问权限。以Perplexity的Comet浏览器为例,它要求访问用户谷歌账户的广泛权限,包括管理邮件、下载联系人、编辑日历等。这种做法存在严重安全和隐私风险,用户实际上是将个人信息快照永久交给了AI公司。从安全隐私角度看,简单的成本效益分析显示,将AI连接到个人敏感数据得不偿失。
基于 Surfshark 对十大手机浏览器的研究,Chrome 共采集包括联系人、位置、浏览历史等 20 种数据,明显高于隐私友好的 Brave 和 Tor,这揭示了热门浏览器隐私风险。
微软暂时搁置备受争议的 Windows Recall 功能后,现在悄然将这款屏幕截图应用重新引入 Windows 11 预览版中,专为 Copilot+ PC 设计。这一举动表明该功能即将正式推出。Recall 可自动截取桌面截图并本地存储,用户可通过 AI 搜索回顾过往活动。尽管微软强调数据安全和隐私保护,但仍面临安全和隐私方面的争议。
ChatGPT 已成为日常生活的一部分,每天有超过 1 亿用户使用它。然而,这款 AI 聊天机器人被描述为"隐私黑洞",任何输入的数据都可能不安全。本文列出了五类绝不应告诉 ChatGPT 或任何公共云端聊天机器人的信息:非法请求、登录凭证、财务信息、机密信息和医疗信息,并提醒用户对自己的数据安全负责。
DeepSeek R1 的隐私政策引发了对其人工智能系统的深度关注。文章指出,与其关注技术实力或性能比较,更应重视 AI 系统的人工完整性。文章详细分析了 DeepSeek 在内部机制、外部机制和用户交互方面存在的问题,强调了在追求 AI 创新时不应忽视对社会结构的潜在威胁,呼吁重新定义我们对 AI 的要求,将人工完整性置于智能之上。
研究显示,欧洲隐私专业人士对数据隐私保护投入不足感到担忧,超过半数预计2025年预算将减少。尽管GDPR已实施多年,仍有较多机构未能充分保护敏感数据。专家警告,隐私设计原则执行不到位,可能违反新兴法规。预算不足和人员短缺等问题加剧了隐私保护工作的压力。
最新法庭文件揭示,Meta 公司涉嫌从一个因版权侵犯被起诉的在线资源下载材料,用于训练其 AI 模型。这一指控引发了对 AI 训练数据来源的质疑,突显了人工智能发展中的知识产权问题。该案件可能对 AI 行业产生深远影响,引发人们对 AI 伦理和合规的更多思考。
OpenAI在官网宣布,美国陆军退役四星上将、前美国网络司令部司令、前国家安全局局长、前中央安全局局长,Paul M. Nakasone(中曾根)加入董事会和安全委员会。
Pew研究中心调查显示,美国人对个人数据隐私感到不安,认为缺乏对数据使用的控制权。大多数人不信任企业和政府处理数据,担心儿童隐私,且支持加强监管。人们常忽略隐私政策,密码管理意识提升,但数据泄露风险高。