专注【中高档】餐饮家具定制
当前位置: 主页 > 客户案例 > 合作客户
Anthropic开始允许青少年和儿童在限制范围内使用其人工智能技术
来源: 网络 / 发布时间:2024-12-06 07:46:24 / 浏览次数:

  值得注意的是■■,Anthropic竞争对手生成式AI供应商,包括谷歌和OpenAI,也在探索更多针对儿童的用例★◆◆。今年◆★,OpenAI成立了一个新团队研究儿童安全,并宣布与Common Sense Media合作制定儿童友好的AI指南。谷歌将其聊天机器人Bard(后来重新品牌为Gemini)在选定地区向说英语的青少年开放◆★★。

  多知5月13日消息,AI初创公司Anthropic正在改变其政策★■◆★◆,允许未成年人在某些情况下使用其生成性AI系统。

  Anthropic在文章中写道:“在某些用例中◆★■,AI工具可以为年轻用户提供显著的好处■■◆,例如考试准备或辅导支持。考虑到这一点◆■■,我们的更新政策允许组织将我们的API整合到他们针对未成年人的产品中★★。”

  Anthropic5月10日在官方博客上宣布,将开始允许青少年和儿童使用由其AI模型支持的第三方应用程序(不一定是Anthropic自己的应用程序),只要这些应用程序的开发人员实施特定的安全功能,并向用户披露他们正在使用的Anthropic技术。

  联合国教育◆◆◆◆★、科学及文化组织(UNESCO)去年年底敦促各国政府规范教育中生成性AI的使用,包括实施用户年龄限制和数据保护及用户隐私的护栏。UNESCO总干事奥德蕾·阿祖莱在新闻发布会上说:“生成式AI可以是人类发展的一个巨大机会■★★★■,但它也可能造成伤害和偏见。如果没有公众参与和政府必要的保障和法规★◆,它就无法融入教育。◆◆”

  《教育科技这一年·2022》+《培训行业这一年·2021》+《教育科技行业图谱2022-2023》,重磅发售!套装优惠价169元★◆■◆,闭眼入!迅速点击文末“阅读原文”购买,手慢无!

  在另一篇相关文章中★★◆■,Anthropic列出了开发针对未成年人的AI应用程序的开发人员应包括的几个安全措施,如年龄验证系统■■★、内容审核和过滤以及关于■★■◆“安全和负责任”的未成年人AI使用的教育资源。该公司还表示,它可能会提供旨在为未成年人量身定制AI产品体验的◆◆◆“技术措施”,如开发人员针对未成年人必须实施的“儿童安全系统提示★◆★■”■◆。

  Anthropic旗下有大语言模型Claude,,擅长推理、数学◆★■、编码。该公司主要采用to B商业化的模式◆■◆■。

  随着儿童和青少年越来越多地转向生成性AI工具寻求帮助,不仅是学校作业,还有个人问题,Anthropic的政策变化也随之而来。

  去年夏天■■■★◆,学校和大学纷纷禁止使用生成式AI应用程序,特别是ChatGPT◆◆■■★。因为担心抄袭和虚假信息★◆■★★。此后,一些学校已经撤销了禁令。但并非所有人都相信生成式AI的潜力,指向像英国安全互联网中心的调查,发现超过一半的儿童(53%)报告说看到同龄人以负面方式使用生成性AI——例如创建可信的虚假信息或用于扰乱某人的图像(包括色情深度伪造)。

  使用Anthropic AI模型的开发人员还必须遵守“适用的◆■★■”儿童安全和数据隐私法规■★,例如保护13岁以下儿童在线隐私的美国联邦法律《儿童在线隐私保护法》(COPPA)■★◆。Anthropic表示★◆,它计划“定期◆★”审计应用程序的合规性,暂停或终止那些反复违反合规要求的账户,并要求开发人员在公共网站或文档上“明确声明★◆★◆★”他们符合规定。

  根据民主与技术中心的一项民意调查,29%的儿童报告曾使用过像OpenAI的ChatGPT这样的生成性AI来处理焦虑或其他心理健康问题,22%用于处理与朋友的问题★■◆,16%用于处理家庭冲突。