Đừng nói nữa, hãy bắt đầu làm - Quy định về AI sắp ra mắt và bạn cần sẵn sàng cho nó | EU-Khởi nghiệp

Đừng nói nữa, hãy bắt đầu làm – Quy định về AI sắp ra mắt và bạn cần sẵn sàng cho nó | EU-Khởi nghiệp

Nút nguồn: 2278419

Với sự cường điệu về trí tuệ nhân tạo ngày càng tăng trong năm qua, dẫn đầu bởi sự bùng nổ của mối quan tâm đến trí tuệ nhân tạo, không có gì ngạc nhiên khi các chính phủ trên thế giới đang đặt ra kế hoạch điều chỉnh công nghệ.

Trong khi các doanh nghiệp và công ty AI biết rằng quy định sắp được ban hành – làm sao họ có thể không? – Nhiều người chưa được chuẩn bị đầy đủ cho sự phức tạp của những gì đang ở phía trước. Với quy định sắp được áp dụng tại các khu vực pháp lý trên toàn thế giới, đã đến lúc ngừng nói về việc nó sẽ trông như thế nào – và bắt đầu hành động.

Đạo luật AI của EU được đề xuất đang có hiệu lực lớn đối với các công ty hoạt động ở Châu Âu. Khung pháp lý này sẽ tăng cường đáng kể quyền lực của các cơ quan chức năng EU trong việc giám sát sự phát triển của AI, có khả năng phạt các công ty vi phạm các quy tắc. Đạo luật tập trung vào một hệ thống phân loại nhằm đánh giá rủi ro do sự phát triển AI gây ra đối với “sức khỏe và sự an toàn hoặc các quyền cơ bản của con người”, theo một báo cáo. phân tích của Diễn đàn Kinh tế Thế giới.

Mặc dù có thời gian thực hiện là hai năm, nhưng Đạo luật AI của EU bao gồm các khoản tiền phạt nếu không tuân thủ, đây là mối đe dọa thực sự đối với các công ty chưa bắt đầu chuẩn bị cho quy định mới. Tổng số tiền phạt này có thể lên tới 30 triệu euro hoặc lên tới 6% tổng doanh thu hàng năm trên toàn thế giới trong năm tài chính trước đó, tùy theo mức nào cao hơn. Chúng không phải là những biện pháp trừng phạt được xem nhẹ, điều này khiến cho việc thiếu sự chuẩn bị càng trở nên khó hiểu hơn.

Không chuẩn bị, chuẩn bị thất bại

Tại sao nhiều công ty chưa chuẩn bị chu đáo cho quy định sắp tới? Một phần là do các cơ quan quản lý có lỗi. Mặc dù chúng tôi có một số hướng dẫn và trong trường hợp Đạo luật AI của EU là một cấu trúc sơ bộ, vẫn còn rất nhiều điều mà chúng tôi chưa biết. Đây vẫn là một mục tiêu di động, khiến các bộ phận tuân thủ rất khó hiểu các bước họ cần thực hiện để đảm bảo tuân thủ các quy định mới.

Chắc chắn là rất khó cho các cơ quan quản lý vì sự phát triển AI đang diễn ra quá nhanh. Điều đó có nghĩa là rất khó đưa ra được luật pháp thực tế mà không cản trở sự đổi mới.

Ngoài ra còn có các vấn đề khác, chẳng hạn như thiếu chuyên gia chính sách có hiểu biết sâu sắc về AI và không có sản phẩm kỹ thuật hiện tại nào cho phép các công ty duy trì tuân thủ trong khi tiếp tục tập trung vào hoạt động kinh doanh cốt lõi của mình. Cả hai yếu tố đó có thể thay đổi, nhưng hiện tại, các công ty không có công cụ cần thiết để tuân thủ các quy định về AI.

Và đừng giả vờ rằng điều này là dễ dàng. Có một mạng lưới liên kết phức tạp với các quy định hiện hành như GDPR và các quy định cụ thể của ngành như yêu cầu về Phần mềm như thiết bị y tế (SaMD), tất cả đều yêu cầu sự hiểu biết và kết hợp với các quyết định kinh doanh, không điều nào trong số đó giúp các công ty dễ dàng tuân thủ . Không thể tránh khỏi, sẽ có những vi phạm và vấn đề khi quy định được triển khai, cả về quy định dành riêng cho AI và cách thức điều chỉnh các hướng dẫn dành riêng cho ngành hiện có cho AI.

Rủi ro từ việc không tuân thủ

Theo Đạo luật AI của EU, những vi phạm nghiêm trọng sẽ dẫn đến mức phạt lên tới 30 triệu euro đối với các công ty, mặc dù ban đầu các cơ quan quản lý có thể sẽ khoan dung để giải quyết các vấn đề mới bắt đầu. Tuy nhiên, đó là một rủi ro mà các công ty không thể bỏ qua.

Tại các tổ chức lớn hơn, có nguy cơ xảy ra tình trạng trì trệ, trong đó nguy cơ không tuân thủ được coi là quá cao để có thể hành động và do đó không có gì xảy ra. Đứng yên có nghĩa là các đối thủ cạnh tranh có thể giành được thị phần từ các công ty riêng lẻ, nhưng sẽ có rủi ro lớn hơn đối với toàn bộ hệ sinh thái nếu các quy định ngăn cản các công ty đổi mới. Nếu các doanh nghiệp không thể cộng tác vì sợ vi phạm, họ sẽ không thể truy cập dữ liệu cần thiết để xây dựng các sản phẩm AI có tiềm năng cải thiện thế giới.

Cuối cùng, rủi ro xã hội sẽ lớn hơn nếu các công ty chưa sẵn sàng áp dụng quy định về AI. Một bài báo truy cập mở gần đây về những rủi ro thảm khốc của AI của các nhà nghiên cứu từ Trung tâm An toàn AI đã xác định bốn loại rủi ro. 

Đầu tiên là “sử dụng có mục đích xấu”, trong đó các cá nhân hoặc nhóm cố tình sử dụng AI để gây hại. Thứ hai, là “cuộc đua AI”, trong đó môi trường cạnh tranh buộc các tác nhân triển khai AI không an toàn hoặc nhường quyền kiểm soát cho AI. Thứ ba là “rủi ro tổ chức”, trong đó nhấn mạnh yếu tố con người và hệ thống phức tạp có thể làm tăng nguy cơ xảy ra tai nạn thảm khốc như thế nào. Cuối cùng là “AI lừa đảo”, mô tả khó khăn cố hữu trong việc kiểm soát các tác nhân thông minh hơn con người rất nhiều.

Điều này nghe có vẻ đáng sợ, nhưng điều này nhấn mạnh lý do phải tăng cường quy định về AI – và sự cấp bách đối với các công ty là đảm bảo rằng họ đã chuẩn bị sẵn sàng.

Các công ty AI có thể làm gì?

Mặc dù có một viễn cảnh khó khăn nhưng vẫn còn thời gian để chuẩn bị sẵn sàng cho quy định về AI. Các kỹ sư, người giám sát dữ liệu và chủ doanh nghiệp phải đảm bảo rằng họ nhận thức được những gì sắp xảy ra cũng như những rủi ro lớn hơn xung quanh vấn đề bảo mật và quyền riêng tư của AI – đồng thời sẵn sàng giới thiệu các sản phẩm cho phép các nhà phát triển duy trì tuân thủ.

Mặc dù việc chuẩn bị cho các quy định AI sắp ban hành có vẻ như là một viễn cảnh khó khăn, nhưng tin tốt là vẫn còn thời gian để tổ chức và tuân thủ. Các bên liên quan chính trong quá trình này—kỹ sư, người giám sát dữ liệu và chủ doanh nghiệp—không chỉ cần nắm rõ các quy định sắp tới mà còn phải chủ động triển khai các giải pháp hỗ trợ tuân thủ. Dưới đây là các bước cần thiết mà các công ty có thể làm theo:

  • Ưu tiên quyền riêng tư dữ liệu và sở hữu trí tuệ: Các mô hình học máy có thể vô tình “ghi nhớ” dữ liệu mà chúng được đào tạo, gây ra những lo ngại đáng kể về quyền riêng tư, đặc biệt nếu có liên quan đến thông tin cá nhân nhạy cảm. Điều quan trọng là xác định và giảm thiểu rủi ro này để bảo vệ cả quyền riêng tư dữ liệu và quyền sở hữu trí tuệ.
  • Triển khai các mô hình học máy an toàn: Các mô hình học máy không tránh khỏi các cuộc tấn công độc hại có thể ảnh hưởng đến bảo mật dữ liệu. Các công ty áp dụng AI phải thận trọng trong việc chỉ sử dụng các mô hình an toàn, đã được hiệu đính.
  • Thiết lập quản trị dữ liệu mạnh mẽ: Người giám sát dữ liệu nên triển khai các khung quản trị để duy trì quyền kiểm soát đối với các tập dữ liệu được sử dụng trong đào tạo mô hình. Điều này bao gồm việc thiết lập các nguyên tắc về những thuật toán có thể được triển khai trên các tập dữ liệu này, đảm bảo sự phù hợp với các yêu cầu tuân thủ rộng hơn.

Các công ty xây dựng sản phẩm AI cần suy nghĩ về việc giảm thiểu rủi ro trong sản phẩm của họ xung quanh các lĩnh vực như bảo mật, thành kiến, an toàn và mạnh mẽ. Họ có thể đạt được điều này bằng cách đảm bảo rằng họ đào tạo các mô hình về dữ liệu thực tế chi tiết và đại diện, bao gồm cả dữ liệu nhạy cảm hiện không được sử dụng.

Điều quan trọng nữa là họ phải minh bạch trong hành động bằng cách đăng ký mô hình và cung cấp bản tóm tắt thông tin bản quyền, cùng với việc quản lý chất lượng và tài liệu. Làm như vậy sẽ hỗ trợ trách nhiệm giải trình và nâng cao các tiêu chuẩn trong quá trình phát triển các mô hình AI.

Cuối cùng, nó liên quan đến bảo mật dữ liệu. Với quyền truy cập vào dữ liệu tính toán được quản lý, riêng tư và an toàn, có thể xây dựng các sản phẩm AI sáng tạo mà không phải hy sinh tính bảo mật hoặc tuân thủ – trong khi đó, điều quan trọng là vẫn tuân thủ quy định.

Quy định đang đến, dù muốn hay không. Để mang lại sự đổi mới và xây dựng các sản phẩm an toàn, chúng tôi cần giới thiệu các công cụ cho phép các công ty tuân thủ các quy tắc mới này. Điều đó sẽ có lợi cho tất cả mọi người.

- Quảng cáo -

Dấu thời gian:

Thêm từ Khởi nghiệp EU