|
Post by account_disabled on Dec 31, 2023 5:39:36 GMT -2
中得到体现,这是一个长期存在的问题,欧洲委员会和欧盟都深入讨论过这一问题。”欧盟和每个国家自己的国家监管机构。” 在他看来,“这方面的关键是要清楚它们的用途以及随之而来的风险。如果您要做出的决定是在网站上展示一个或另一个广告,那么风险较低,但如果这些决定影响人们的权利和自由,例如拒绝抵押贷款或禁止进入某个国家,那么“那里”必须控制那里。” 这就是为什么我们回到之前提到的“技术本身并不是问题,而是为什么要应用基于人工智能的技术。” 就罗德里格斯的情况而言,她指出,“幸运的是,信息处理(即使是人工智能)不是在以太坊中进行的,因此我们已经学到了很多关于如何保护它的知识。 ” “我总结的关键在于:(i)安全/隐私专家之间的持续合作,以了解整个数据处理流程并设计足够的保护;(ii) 制定数据最小化策略;(iii) 制定持续验证控制措施的策略;(iv)培训我们的员工和用户,”他强调说。 关于人工智能中算法的使用以及它们产生偏差的事实,这些专家并不认为人类干预是解决这个非常令人担忧的问题的唯一解决方案。 “人类是不完美的。除非设计出偏 手机号码列表 差消除流程,否则这些缺陷将转移到技术中。我们通过搜索引擎和社交媒体算法看到了这一点,现在我们又看到了,”佩雷斯·贝斯评论道。 从这个角度来看,他认为“人类的干预并不是最终的解决方案,正是因为人类固有的偏见的存在。但它确实产生了额外的控制措施,降低了自动化决策对受影响人群的自由和权利造成损害的可能性。 ” 这位法学家认识到,“此外,似乎不可避免地要考虑增加伦理和哲学方面的培训和知识,冒着无法理解这场新技术革命并在不受控制的情况下继续创新的风险。” 在他看来,“一旦我们看到技术能够自我生成代码或创造新技术,也许我们应该担心,在某些时候,我们最终会失去对技术创造的控制。” (照片:E&J) 对于何塞·莱安德罗·努涅斯来说,“目前,人类干预是阻止这些偏见的唯一方法。如果你让人工智能自己学习,它会产生其他偏见,因为它们存在于社会中。问题就在那里。人为干预是最好的措施。“它已被认为是有效的,但不影响可能还有其他目前未知的事实。” 专家和公司担心的另一个问题与这些人工智能工具的运行失败有关,这可能会在法庭上产生某种类型的民事责任,而这些责任必须如何量化。
|
|