人工智能改变了观点。这是我们 adesso AI 活动的信条,同时它也包含了本文重点关注的一个重要方面。人工智能将对未来产生重大影响,我们需要审视并批判性地审视它,以便为今天和未来的风险做好准备。
具体来说,它涉及人工智能伦理方面的相关性——简称人工智能伦理。这并不意味着机器将毁灭人类的头条新闻,而是要仔细处理这个话题并给它空间。因为即使这些台词在互联网上或书名中似乎被夸大了,它们仍然引起人们对我们必须意识到的可能危险的关注。
在 adesso 人工智能研究“人工智能——盘点”中,39% 的决策者(即大多数人)相信,人工智能等新技术的使用将是未来三年的核心挑战。这说明了人工智能的相关性以及深入研究人工智能技术的必要性。
挑战——人工智能伦理是什么?
要了解人工智能伦理是什么,我们首先需要了解人工智能是如何运作的。题外话:人工智能是机器应用程序模仿自然智能的能力。这意味着“机器”能够做出与人类判断相对应的决策——这就是道德部分开始的地方。因为人们不仅仅做出道德上正确的决定。人类的特点是扭曲的观念(“无意识偏见”),这些观念在我们没有意识到的情况下影响了我们的决定。
无意识偏见是由于刻板印象等原因而产生的认知扭曲。这些大多是无意 医院联系清单 识的感知错误导致我们根据不完整的知识将某些(可能是不正确的)特征、属性和能力分配给某些社会群体。
这些扭曲会对(自动)决策产生影响,也称为算法偏差,分配给机器学习(机器学习或深度学习)。经典机器学习适用于数据和预定义的分类。一个简单的例子如下:我们有苹果和梨,我们告诉机器两种水果之间的差异(例如:苹果是红色的,梨是绿色的=分类)。现在,当机器收到新数据时,它可以使用分类来分配它是苹果还是梨。
但如果不是苹果和橙子,而是人呢?如果分类是关于某个地区的人是否因为来自该地区的其他人取消贷款的数量增加而没有获得贷款呢?
通过深度学习,机器可以自行计算出分类。为此,它使用由模拟神经细胞组成的人工神经网络,该网络基于大量数据进行学习。机器视觉领域的面部识别就是一个例子。数据的数量和质量在这里至关重要。一个典型的例子是:图像数据集中没有足够的有色人种,这意味着面部识别对有色人种的识别效果比有色人种更差。在这里,人类的影响力较小,因为算法是“无监督的”——即不受人类控制。
然而,在这两种情况下,都有一些措施来建立正确的人工智能道德或让人工智能做出更好的道德决策。
加州大学伯克利分校计算机科学教授斯图尔特·J·拉塞尔 (Stuart J. Russell) 在其著作《人类兼容:人工智能与控制问题》中给出了一个恰当的例子,说明人工智能的伦理方面的影响有多么深远。他提到了社交媒体中的选择和推荐算法:它们并不是特别智能,但却影响了数十亿人。 Deepfakes 也是一个新颖的例子。这是看似真实但已在人工智能或深度学习的帮助下发生改变的媒体内容(视频、音频文件或照片)。这些行为尤其不道德,因为他们故意操纵人们。