Lệnh hành pháp về Trí tuệ nhân tạo của Tổng thống Joe Biden đang tạo ra một cuộc đấu tranh giữa những người lo sợ các cơ quan được phân quyền dưới lệnh sẽ vượt quá giới hạn và những người lo ngại rằng chính phủ sẽ không làm đủ.
Lệnh hồi tháng trước yêu cầu nhiều bộ phận thu thập ý kiến công chúng, chuẩn bị các quy định mới và chuẩn bị một loạt báo cáo. Nó giao trọng trách quan trọng cho Bộ An ninh Nội địa và Bộ Thương mại, bao gồm Viện Tiêu chuẩn và Công nghệ Quốc gia, được giao nhiệm vụ phát triển các tiêu chuẩn an toàn.
Bộ trưởng Bộ An ninh Nội địa được chỉ đạo thành lập Hội đồng An toàn và Bảo mật Trí tuệ nhân tạo để nâng cao an ninh. Bộ Quốc phòng, Bộ Cựu chiến binh, và Bộ Y tế và Dịch vụ Nhân sinh phải phát triển quy định về việc sử dụng Trí tuệ nhân tạo đúng mực trong lĩnh vực của họ.
Tổng thống Joe Biden trao Bút chi cho Phó Tổng thống Kamala Harris mà ông đã dùng để ký lệnh hành pháp mới liên quan đến trí tuệ nhân tạo vào ngày 30 tháng 10 tại Nhà Trắng.
Chip Somodevilla, Getty Images Lệnh chỉ đạo Ủy ban Thương mại Liên bang, Cục Bảo vệ Tài chính Người tiêu dùng và Cơ quan Tài chính Người tiêu dùng Nhà ở Liên bang xây dựng quy định để giải quyết đầu độc và những hại khác từ hệ thống Trí tuệ nhân tạo. FTC cũng phải xem xét khả năng áp dụng cạnh tranh công bằng giữa các công ty Trí tuệ nhân tạo bằng các quyền hạn hiện có.
Lệnh thiết lập một khung thời gian từ 3 đến 9 tháng cho các cơ quan và bộ phận khác nhau để sản xuất một số báo cáo. Họ cũng phải yêu cầu ý kiến công chúng trước khi soạn các quy định mới trong khi xác định các cơ hội tài trợ mới cho Trí tuệ nhân tạo trong nhiều lĩnh vực.
Sự quan tâm đối với quy mô hoạt động này đang thu hút sự chú ý từ các lợi ích đặc biệt. Phòng Thương mại Hoa Kỳ, đại diện cho các tập đoàn lớn nhất của Hoa Kỳ, hoan nghênh lệnh hành pháp này, cho rằng nó có thể giúp Hoa Kỳ thiết lập tiêu chuẩn toàn cầu về an toàn Trí tuệ nhân tạo trong khi tài trợ cho một loạt dự án mới.
Tuy nhiên, Jordan Crenshaw, phó chủ tịch điều hành Binh đoàn này, lo ngại về việc có nhiều quy định mới cùng với số lượng ý kiến công chúng yêu cầu bởi các cơ quan khác nhau. Ông nói các cơ quan như FTC, CFPB và FHFA, "mà đã được cho là đã vượt quá quyền hạn của họ để giành quyền lực, có thể sử dụng (lệnh) này làm lý do để tiếp tục hoạt động theo cách họ đã làm".
Crenshaw đưa ra ví dụ của FTC xem xét các quy định về giám sát thương mại và an ninh dữ liệu, trong đó FTC hỏi công chúng liệu có thể áp dụng các quy định rộng lớn như vậy trên toàn nền kinh tế hay không. Ông nói bất kỳ nỗ lực nào của FTC áp đặt các quy định rộng lớn như vậy, mà không có quyền hạn rõ ràng mới được Ban Quốc hội cấp, có thể vấp phải nguyên tắc của Tòa án Tối cao gọi là nguyên tắc các vấn đề quan trọng. Tòa án, trong vụ West Virginia v. EPA, đã tuyên bố vào năm 2022 rằng EPA đã đi quá xa trong việc quy định khí thải làm thủ tục không có quyền hạn rõ ràng từ Quốc hội.
Lệnh của Biden tạo ra tới 90 yêu cầu ý kiến từ các cơ quan khác nhau được giao nhiệm vụ soạn các quy định, Crenshaw cho biết. "Và với khung thời gian ý kiến rất ngắn, chúng tôi có thể gặp quá tải ý kiến và các bên liên quan thực sự có thể bỏ lỡ cơ hội tham gia chỉ vì số lượng ý kiến khổng lồ mà chúng ta phải theo dõi", ông nói.
Một số tổ chức quyền số lo ngại rằng lệnh có thể dẫn đến việc không có sự giám sát đúng mực.
"Cựu Tổng thống Biden đã trao quyền cho các cơ quan của mình để thực sự làm điều gì đó về Trí tuệ nhân tạo," Caitlin Seeley George, giám đốc quản lý tại Fight for the Future, một tổ chức phi lợi nhuận đấu tranh cho quyền số, nói trong một email.
“Trong trường hợp tốt nhất, các cơ quan thực hiện tất cả những biện pháp tiềm tàng có thể xuất phát từ trật tự điều hành, và sử dụng tất cả tài nguyên của mình để thực hiện những thay đổi tích cực nhằm lợi ích cho người dân hàng ngày.”
Tuy nhiên, cũng có khả năng rằng các cơ quan chỉ thực hiện tối thiểu, một lựa chọn sẽ làm cho nghị định này trở nên vô dụng và lãng phí thêm một năm cuộc sống của chúng ta trong khi những người dễ bị tổn thương tiếp tục mất nơi ở và cơ hội việc làm, trải qua sự giám sát tăng cường trong trường học và nơi công cộng, và bị nhắm mục tiêu bất công bởi cảnh sát, tất cả đều do trí tuệ nhân tạo có thành kiến và phân biệt", cô ấy nói.
NIST có khả năng đóng vai trò quan trọng trong việc tạo ra các tiêu chuẩn an toàn mới về trí tuệ nhân tạo.
Phó Tổng thống Kamala Harris tuyên bố tại Hội nghị Cao cấp Thế giới về An toàn Trí tuệ Nhân tạo ở Vương quốc Anh tuần trước rằng theo sắp xếp của Tổng thống Biden, NIST sẽ thành lập Viện An toàn Trí tuệ Nhân tạo, mà cô ấy nói "sẽ tạo ra các tiêu chuẩn nghiêm ngặt để kiểm tra tính an toàn của các mô hình Trí tuệ Nhân tạo sử dụng công cộng." Nhưng một nghiên cứu về nhu cầu về tài chính và vật chất của NIST do Quốc hội yêu cầu và được Viện Hàn lâm Khoa học, Kỹ thuật và Y học quốc gia hoàn thành vào tháng Hai đã phát hiện ra những khuyết điểm nghiêm trọng tại cơ quan này.
Quốc hội đã đề ra kế hoạch chi 1,65 tỷ đô la cho NIST trong năm tài chính 2023. Một người phát ngôn của NIST không trả lời các câu hỏi liên quan đến việc cơ quan có kế hoạch tăng cường nguồn vốn để đáp ứng các yêu cầu mới theo sắp xếp.
Nhưng được cho là NIST sẽ cần gấp đôi đội ngũ chuyên gia trí tuệ nhân tạo lên 40 người để thực hiện sắp xếp của Tổng thống, như Divyansh Kaushik, giám đốc phụ trách Công nghệ Nổi bật và An ninh Quốc gia tại Liên minh Viên Khoa học Mỹ, người đã nghiên cứu nhu cầu của NIST, cho biết.
Cơ quan này cũng sẽ cần khoảng 10 triệu đô la "chỉ để thiết lập viện" như đã được Harris tuyên bố, Kaushik cho biết. "Họ chưa có tiền đó".
Xu hướng trong đạo đức trí tuệ nhân tạo trước và sau ChatGPT
Xu hướng trong đạo đức trí tuệ nhân tạo trước và sau ChatGPT
Hệ thống tính toán hiển thị logic, suy luận và hiểu biết về đầu vào bằng lời nói, văn bản và hình ảnh đã tồn tại từ nhiều thập kỷ trước. Nhưng phát triển đã nhanh chóng trong những năm gần đây với công việc về trí tuệ nhân tạo phát sinh được gọi là generative được các công ty như OpenAI, Google và Microsoft thực hiện.Khi OpenAI thông báo về việc ra mắt ChatGPT, một chatbot trí tuệ nhân tạo generative năm 2022, hệ thống này nhanh chóng thu hút hơn 100 triệu người dùng, từ đó đạt được tỷ lệ nhận dạng nhanh nhất trong lịch sử phần mềm máy tính.
Với sự bùng nổ của trí tuệ nhân tạo, nhiều người đón nhận khả năng của công nghệ này để thúc đẩy quyết định, tăng tốc thu thập thông tin, giảm lỗi của con người trong công việc lặp đi lặp lại và cho phép tính sẵn sàng 24/7 cho các nhiệm vụ khác nhau. Nhưng các lo ngại về đạo đức cũng ngày càng tăng lên. Các công ty tư nhân đứng sau phần lớn việc phát triển trí tuệ nhân tạo và vì lý do cạnh tranh, họ không rõ ràng về thuật toán mà họ sử dụng trong việc phát triển các công cụ này. Các hệ thống đưa ra quyết định dựa trên dữ liệu được cung cấp, nhưng nơi mà dữ liệu đó đến từ không nhất thiết được chia sẻ với công chúng.
Người dùng không luôn biết rằng họ đang sử dụng các sản phẩm dựa trên trí tuệ nhân tạo, cũng như liệu thông tin cá nhân của họ có được sử dụng để đào tạo các công cụ trí tuệ nhân tạo hay không. Một số người lo ngại rằng dữ liệu có thể chứa đựng thành kiến và dẫn đến phân biệt, thông tin sai lệch và - trong trường hợp phần mềm dựa trên trí tuệ nhân tạo trong ô tô và các máy móc khác - tai nạn và tử vong.
Chính phủ liên bang đã đang trên đường thiết lập quyền lực quy rég về phát triển trí tuệ nhân tạo ở Hoa Kỳ.
Để giải quyết những mối quan ngại này, Ủy ban Tư vấn Trí tuệ Nhân tạo Quốc gia đề nghị các công ty và cơ quan chính phủ thành lập vị trí Tổng quản trị trách nhiệm AI, người đảm nhiệm vị trí này sẽ được khuyến khích áp dụng một chứng nhận gọi là Đề xuất Luật Quyền của Trí tuệ Nhân tạo. Ban chỉ đạo này, được thành lập thông qua luật năm 2020, cũng đề nghị tích hợp lãnh đạo tập trung vào trí tuệ nhân tạo trong mọi cơ quan chính phủ.
Trong thời gian đó, một tổ chức độc lập có tên AIAAIC đã đảm nhận nhiệm vụ tạo ra sự minh bạch hơn về các vấn đề liên quan đến trí tuệ nhân tạo. Magnifi, một nền tảng đầu tư trí tuệ nhân tạo, đã phân tích các khiếu nại về đạo đức được thu thập bởi AIAAIC liên quan đến trí tuệ nhân tạo từ năm 2012 để xem làm thế nào mức độ quan ngại về trí tuệ nhân tạo đã tăng trong thập kỷ qua. Các khiếu nại bắt nguồn từ các báo cáo truyền thông và phản hồi được AIAAIC xem xét.
Một phần quan trọng của công chúng gặp khó khăn trong việc hiểu về trí tuệ nhân tạo và sự ảnh hưởng của nó
Nhiều người tiêu dùng nhận ra khi họ tương tác với công nghệ được trang bị trí tuệ nhân tạo, chẳng hạn như khi họ đặt câu hỏi cho một trợ lý ảo hoặc nhận được gợi ý mua sắm dựa trên các giao dịch trước đó. Tuy nhiên, họ ít hiểu biết về sự phổ biến của những công nghệ này.Khi Pew Research khảo sát người Mỹ vào tháng 12 năm 2022 và hỏi xem họ có biết về sáu ví dụ cụ thể về cách trí tuệ nhân tạo được sử dụng, chỉ có 3 trong 10 người trưởng thành biết về tất cả chúng. Điều này bao gồm hiểu biết về cách trí tuệ nhân tạo hoạt động với dịch vụ email và tổ chức hộp thư đến, cách các thiết bị theo dõi thể dục mang tính trí tuệ nhân tạo, và cách camera an ninh có thể nhận ra khuôn mặt. Sự hiểu biết thấp về cách trí tuệ nhân tạo biểu hiện trong cuộc sống hàng ngày góp phần vào thái độ của người Mỹ đối với công nghệ này. Pew phát hiện rằng 38% người Mỹ lo lắng hơn là phấn khích về sự gia tăng của trí tuệ nhân tạo.
Khi trí tuệ nhân tạo tràn ngập các công nghệ dành cho người tiêu dùng, mức độ quan ngại tăng lên một cách nóng bỏng
Ban đầu, sự quan ngại về trí tuệ nhân tạo tập trung vào các công ty mạng xã hội và thuật toán của họ - như nghiên cứu của Facebook năm 2014 khi các nhà nghiên cứu của công ty can thiệp vào trang tin của 700.000 người dùng mà không được sự chấp thuận của họ, hoặc các thuật toán lan truyền tin mạo danh và chính sách sai thông tin trong cuộc bầu cử tổng thống năm 2020.Việc ChatGPT và các công cụ tạo nội dung đa phương tiện trở nên phổ biến trong năm qua đã nâng cao mức độ quan ngại về tác động của trí tuệ nhân tạo đối với xã hội, đặc biệt là sự gia tăng việc đạo văn, chủ nghĩa phân biệt chủng tộc, phân biệt giới tính, thiên vị và sự lan truyền dữ liệu không chính xác.
Vào tháng 9 năm 2022, một khiếu nại của AIAAIC đối với Upstart - một công ty cho vay tiêu dùng sử dụng trí tuệ nhân tạo - đã nêu lên vấn đề về phân biệt chủng tộc trong việc xác định người nhận khoản vay.
Những phàn nàn khác tập trung vào việc thiếu đạo đức trong việc đào tạo các công cụ AI.
Vào tháng Sáu năm 2023, người dùng và cộng tác viên của Adobe đã nộp đơn khiếu nại AIAAIC về trình tạo hình nghệ thuật Firefly AI của Adobe, cho rằng công ty thiếu đạo đức khi không thông báo cho họ biết rằng công ty đã sử dụng hình ảnh của họ để huấn luyện Firefly.
Các ngành công nghiệp chính bao gồm chính phủ, công nghệ và truyền thông là các ngành lo ngại hàng đầu
Mặc dù tập dữ liệu AIAAIC không hoàn hảo và có tính chủ quan, nó là một trong số ít các nguồn để theo dõi những quan ngại đạo đức với các công cụ AI. Nhiều cơ quan chính phủ đã áp dụng AI - đặc biệt là công an - đã thấy mình trở thành đối tượng khiếu nại từ công chúng. Các sự cố như công nghệ nhận dạng khuôn mặt đã gây ra những bắt giữ sai trái ở Louisiana, ví dụ, và một chính sách của Sở Cảnh sát San Francisco năm 2022 sử dụng robot tự động bị hủy bỏ nhanh chóng vì cho phép robot điều khiển từ xa giết các nghi phạm.Không ngạc nhiên, nhiều công dân và tổ chức lo ngại về việc các công ty công nghệ sử dụng AI trong sự gia tăng của các trợ lý chat. Một số vấn đề liên quan đến ChatGPT và Google Bard xoay quanh vấn đề đạo văn và thông tin không chính xác, gây tiêu cực cho cá nhân và các công ty và lan truyền thông tin sai lệch.
Ngành công nghiệp ô tô là một ngành khác nơi các nhà lãnh đạo hàng đầu như Tesla tận dụng AI trong cuộc chạy đua với xe tự lái. Phần mềm Autopilot của Tesla đang được xem xét một cách kỹ lưỡng, với Cục An toàn Giao thông Đường bộ Quốc gia báo cáo rằng phần mềm này đã gây liên quan đến 736 vụ tai nạn và 17 trường hợp tử vong kể từ năm 2019.
Trường hợp lạc quan cho tương lai của AI dựa trên tiềm năng phát triển trong lĩnh vực khoa học, y tế và giáo dục
Trong khi chính phủ liên bang đang làm việc để ban hành qui định rõ ràng về quyền lực quản lý để giám sát việc phát triển AI tại Hoa Kỳ.để đảm bảo trách nhiệm, nhiều ngành công nghiệp từ nông nghiệp và sản xuất đến ngân hàng và tiếp thị đã sẵn sàng chứng kiến sự biến đổi lớn.
Ngành chăm sóc sức khỏe đang trở thành một lĩnh vực được quan tâm vì cách AI có thể cải thiện đáng kể kết quả sức khỏe và thúc đẩy tiến bộ của xã hội. Ví dụ, việc phát hành công nghệ vào năm 2022 có thể dự đoán hình dạng protein đang giúp các nhà nghiên cứu y tế hiểu rõ hơn về các bệnh. AI có thể giúp các công ty dược phẩm tạo ra thuốc mới nhanh hơn và rẻ hơn thông qua phân tích dữ liệu nhanh hơn trong việc tìm kiếm phân tử thuốc mới tiềm năng.
AI có thể có tiềm năng mang lại lợi ích cho hàng triệu bệnh nhân khi thúc đẩy sự phát triển của y tế từ xa và có khả năng mở rộng quyền truy cập vào chăm sóc sức khỏe; hỗ trợ trong việc chẩn đoán, điều trị và quản lý các bệnh mãn tính; và giúp nhiều người già sống tại nhà trong khi có thể giảm chi phí.
Các nhà khoa học nhận thấy tiềm năng để tạo ra những hiểu biết mới bằng cách tận dụng khả năng tính toán dữ liệu và tăng tốc khám phá khoa học của AI. Một ví dụ là dự án Earth-2, sử dụng công cụ dự báo thời tiết trí tuệ nhân tạo để dự báo các sự kiện thời tiết cực đoan tốt hơn và giúp con người chuẩn bị tốt hơn cho chúng. Ngay cả trong lĩnh vực giáo dục, các chuyên gia tin rằng các công cụ trí tuệ nhân tạo có thể cải thiện sự tiếp cận học tập của cộng đồng chưa được phục vụ đầy đủ và giúp phát triển trải nghiệm học tập cá nhân hóa hơn.
Trong lĩnh vực tài chính, các chuyên gia cho biết AI đối diện với một số đáng kể về mặt đạo đức. Gary Gensler, Giám đốc Ủy ban Chứng khoán và Giao dịch Mỹ, cho biết về hành vi đám đông hoặc mọi người đều tin tưởng vào cùng một thông tin, lời khuyên sai lầm và xung đột lợi ích có thể gây thảm họa kinh tế nếu không đề phòng. "Bạn không nên đặt cố vấn trên cổ đông, bạn không nên đặt môi giới trên cổ đông," Gensler nói trong một cuộc phỏng vấn với The New York Times. Để giải quyết những lo ngại đó, SEC đề xuất một đề án sẽ quy định việc sử dụng AI trên các nền tảng, cấm chúng đặt nhu cầu kinh doanh trước lợi ích tốt nhất của khách hàng.
Chuyển đổi câu chuyện bởi Jeff Inglis. Biên tập bản sao bởi Kristen Wegrzyn.
Câu chuyện này ban đầu xuất hiện trên Magnifi và được sản xuất và phân phối như một đối tác của Stacker Studio.
Hãy là người đầu tiên biết
Nhận tin tức địa phương trực tiếp trong hộp thư đến của bạn!