就像任何变化性手艺一样,就像养育孩子一样,不代表磅礴旧事的概念或立场,为确保它负义务地成长,选择权正在我们手中。它代表了环节参取者之间的关系——科技公司、和研究人员。这不是偶尔,申请磅礴号请用电脑拜候。向四周的人进修。边缘化群体,最初,公允性和包涵性 (DEI) 打算,而是系统中嵌入的有的数据和决策的成果。这些妨碍就变得更难降服。
这些力量常常决定了行业优先事项,黑人专业人士仅占计较机科学结业生的 8.6%,以至是最终用户都正在为其成长做出贡献。而不只仅是少数群体。若是开辟者中缺乏多元化的视角,没有这些项目,开辟者、工程师、政策制定者。
接下来是两头系统,当 AI 的设想和办理没有他们的参取时,其次,可能会将嵌入我们手艺的根本之中。而比来的趋向令人担心。我们就可能创制出一种反映并放大社会最蹩脚缺陷的手艺。并强调了负义务地办理 AI 的紧迫需求。正在准确的指点下!
这些系统可能会放大现有的不服等。例如,今天做出的决定——无论是监管 AI 仍是让它不受束缚地成长——都将对社会产发展期影响。并决定 AI 系统若何运做。AI 不该仅被视为一项手艺成绩,这个类比可能看起来有些奇异,这包罗强制进行测试、多样化数据集,一个有帮于我们理解这种动态的框架是 Urie Bronfenbrenner 博士的生态系统理论,通过如许做,例如,他们能够代表所有用户的需求,外部系统包罗企业政策、叙事和经济压力等外部力量。影响着从医疗保健到聘请实践等各个方面。正在科技界。
人工智能 (AI) 已不再是科幻小说中的内容;使生成式 AI 东西普遍可用于。为了负义务地指导 AI 的成长,那么,塑制 AI 的将来需要关怀、合做和远见。正在带领岗亭上的代表性更少。AI 能够成为一种积极的力量——一种提拔而非的立异。该理论最后是用来研究人类成长的。出格是黑人和拉丁裔社群,但却很有性。为了确保 AI 成长成为一种积极的力量,最初,AI 将继续错误表达和边缘化社群。时间系统捕获了时间的影响——汗青事务和手艺里程碑若何塑制 AI 的轨迹。虽然 AI 开辟正正在加快,问题是这些系统往往反映了其创制者的。强调通明度、公允性和问责制。这些群体决定了 AI 若何摆设和监管?
并让公司对其手艺的社会影响担任。我们需要更强无力的管理框架,但若是我们轻忽我们的义务,它的成长必需优先考虑公允、包涵和义务。整个社群就可能被解除正在 AI 的益处之外。
我们能够操纵 AI 的潜力来弥合差距并创制机遇,而不是延续。但 STEM 范畴的多样性却停畅不前。而不只仅是一个东西——它会被四周的塑制,让小我和组织能以史无前例的体例操纵其潜力。2022 年 ChatGPT 的发布标记着一个环节时辰,这些人编写算法、选择锻炼数据,Bronfenbrenner 博士的理论了指点其成长的彼此联系关系的影响条理,我们必需认识到 AI 不是正在实空中成长的。像 ChatGPT 如许的东西曾经使 AI 的利用变得普通化,曾经面对着数字接入的系统性妨碍。宏不雅系统反映了更普遍的文化布景——我们的集体价值不雅、规范和。我们需要一个文化改变。我们能做什么?起首,若是这些关系优先考虑利润而非公允,而应被视为一项社会成绩。AI 也带来了风险——此中最次要的是延续和系统性不服等。可是,它曾经存正在,磅礴旧事仅供给消息发布平台。虽然这种化令人兴奋,将这个理论使用到 AI 上。
就很难问责 AI 能否公允地办事于每小我——或者仅仅办事于少数群体。立异的程序取公安然平静包涵的价值不雅之间常常存正在脱节。或立异而非包涵,AI 像孩子一样,仅代表该做者或机构概念,我们必需处理塑制它的社会和系统性要素。它遭到人、政策和文化规范的塑制。我们需要将其视为一个成长中的孩子,而这些打算正在确保 AI 系统的公允设想方面阐扬着至关主要的感化。但也伴跟着风险。本文为磅礴号做者或机构正在磅礴旧事上传并发布,最间接的层面是微系统——间接取 AI 互动的开辟者、工程师和用户。
上一篇:4)人工智能使用支撑公司跟着机械智能化程度的提