Ý nghĩa của AI tạo sinh đối với sự tin cậy và an toàn

Việc không kiểm soát được AI tạo sinh có nguy cơ khiến các nền tảng tràn ngập thông tin sai lệch, gian lận và nội dung độc hại. Nhưng những bước đi chủ động của các công ty và các nhà hoạch định chính sách có thể ngăn chặn làn sóng này.

Các công cụ AI có sẵn miễn phí như ChatGPT và Dall-E của OpenAI có thể nhanh chóng tạo ra văn bản và hình ảnh chất lượng cao, riêng biệt. Nhưng khả năng tương tự này lại cho phép phổ biến nội dung có hại do AI tạo ra.

Mặc dù AI có tiềm năng ứng dụng tích cực nhưng việc áp dụng nhanh chóng nó đòi hỏi nỗ lực giảm thiểu rủi ro và ngăn chặn việc lạm dụng. Khi việc sử dụng AI trở nên phổ biến, các chuyên gia công nghệ, các công ty và nhà hoạch định chính sách phải thực hiện các biện pháp bảo vệ và thay đổi các biện pháp khuyến khích xung quanh vấn đề an toàn và đạo đức trong phát triển AI.

Jesse Lehrich, đồng sáng lập của Accountable Tech, một nhóm giám sát công nghệ phi lợi nhuận cho biết, kể từ khi bắt đầu bùng nổ AI vào mùa thu năm ngoái, “đã có tác động khá đáng kể đến Internet”. “Generative AI đã được đón nhận rộng rãi và các công ty rất háo hức triển khai các công cụ tận dụng nó và nắm bắt thời điểm trong chu kỳ nở rộ của AI. … Tôi nghĩ Internet đã nhanh chóng bị tràn ngập bởi một lượng nội dung đáng kể do AI tạo ra.”

Phổ biến nội dung có hại chất lượng cao trên quy mô lớn

Ngoài một loạt ứng dụng tích cực và hiệu quả, AI tạo sinh còn đang được sử dụng để tạo ra nội dung có hại, từ thông tin sai lệch đến lừa đảo, lạm dụng và các phát ngôn gây hận thù.

Matar Haller, phó chủ tịch dữ liệu và AI tại ActiveFence, một công ty phát hiện và kiểm duyệt nội dung, cho biết: “Generative AI có những thành phần tốt và xấu. Và nếu chúng ta nghĩ về các thành phần xấu — về cơ bản, nó đã hạ thấp khả năng tiếp cận của các tác nhân độc hại.”

Điểm hấp dẫn chính của trình tạo văn bản và hình ảnh AI là khả năng nhanh chóng tạo ra đầu ra chất lượng cao có thể cạnh tranh với tác phẩm do con người tạo ra. Nhưng khả năng này cũng giúp dễ dàng tạo ra nội dung có hại hấp dẫn và thuyết phục hơn. Mặc dù thông tin sai lệch, gian lận và lạm dụng chắc chắn không phải là những rủi ro mới trên mạng, nhưng AI có tính sáng tạo sẽ thay đổi quy mô của nó.

Reggie Townsend, phó chủ tịch đạo đức dữ liệu tại công ty phân tích SAS và là thành viên của Ủy ban Cố vấn Trí tuệ Nhân tạo Quốc gia Hoa Kỳ (NAIAC), cho biết: “Tôi nghĩ rằng có một mô hình đã xuất hiện trên internet, đó là khi các khả năng ngày càng được phổ thông hóa, khối lượng sẽ tăng lên. Và vì vậy, bạn thấy số lượng thông tin tốt nhiều hơn – mọi người cố gắng làm điều đúng đắn – và bạn thấy số lượng thông tin sai lệch cao hơn – những người cố gắng làm những điều gây hại.”

Trong lịch sử, việc tạo ra nội dung có hại thường đòi hỏi phải hy sinh chất lượng hoặc quy mô. Ví dụ: trong các nỗ lực lừa đảo, kẻ tấn công có thể tạo ra số lượng lớn tin nhắn chất lượng thấp hoặc các chiến dịch lừa đảo có mục tiêu nhỏ hơn . Mặc dù cách sau có xu hướng tạo ra những thông điệp đáng tin cậy hơn và lừa được nhiều nạn nhân hơn nhưng nó cũng đòi hỏi sự đầu tư đáng kể về thời gian và công sức.

“Bây giờ, đột nhiên, bạn có thể làm cả hai,” Haller nói. “Bạn có thể xuất ra [nội dung] chất lượng cực cao nhưng cũng ở quy mô lớn.”

AI tạo sinh giảm bớt rào cản tạo ra nội dung có hại

Để cung cấp thông tin cho các mô hình phát hiện nội dung của mình, ActiveFence giám sát các cộng đồng tác nhân đe dọa trên các diễn đàn web đen và các kênh nhắn tin tức thời. Đầu năm nay, công ty đã công bố một báo cáo dựa trên hoạt động giám sát này cho thấy nội dung có hại do AI tạo ra đã gia tăng kể từ đầu năm 2023.

Haller cho biết, một lĩnh vực mà ActiveFence đã thấy tăng trưởng đáng kể là tài liệu lạm dụng tình dục trẻ em (CSAM) do AI tạo ra. Trong các cộng đồng được giám sát, ActiveFence nhận thấy có sự gia tăng các cuộc trò chuyện liên quan đến việc chia sẻ mẹo điều chỉnh mô hình và tạo lời nhắc để tạo nội dung xâm hại tình dục trẻ em. Cô nói: “Trong các vòng web tối, họ đang thảo luận về nó và họ rất hào hứng với nó. “Họ đang chia sẻ nó… không chỉ bản thân CSAM mà còn cả cách tự sản xuất nó.”

Điều này nêu bật một trong những rủi ro liên quan đến các mô hình AI nguồn mở , Haller lưu ý. Các mô hình tạo nguồn mở như Khuếch tán ổn định có thể được tinh chỉnh cho một loạt các nhiệm vụ chuyên biệt, thường tương đối rẻ.

Và mặc dù đây là một lợi thế trong nhiều bối cảnh kinh doanh và nghiên cứu, nhưng các mô hình nguồn mở cũng có thể được tùy chỉnh cho các mục đích xấu, chẳng hạn như tạo CSAM. Cô nói: “Việc xem loại nội dung đó gần như dễ dàng hơn khi bạn có thể tự mình làm điều đó [với AI tạo sinh]”.

Tương tự như vậy, Lehrich lo ngại về AI tạo điều kiện cho việc tạo ra các tuyên truyền chính trị đáng tin cậy. Ông đã so sánh kết quả đầu ra của các trình tạo văn bản và hình ảnh ngày nay với thông tin sai lệch của Nga trong cuộc bầu cử tổng thống Mỹ năm 2016.

Mặc dù đôi khi hấp dẫn nhưng nội dung đó thường tiết lộ rằng nó không được viết bởi một người nói tiếng Anh bản xứ hoặc ai đó quen thuộc với văn hóa và chính trị Hoa Kỳ. Nhưng các công cụ như ChatGPT có thể tạo ra văn bản tiếng Anh được viết tốt, có khả năng tạo ra nhiều thông tin sai lệch hấp dẫn hơn trên quy mô lớn.

Lehrich nói: “Nó hạ thấp rào cản đối với việc thực hiện loại kế hoạch tuyên truyền hoặc kế hoạch thông tin sai lệch đó, cho dù đó là vì lợi ích chính trị hay lợi nhuận”.

Tác hại tiềm tàng của AI tạo sinh có ý nghĩa gì đối với doanh nghiệp

Những rủi ro này dường như đã bị loại bỏ khỏi nhiều ứng dụng AI trong kinh doanh. Nhưng chúng sẽ đóng vai trò như một lời cảnh báo về những tác động tiềm ẩn về độ tin cậy và an toàn khi triển khai AI tạo sinh, đặc biệt là trong các công cụ tiếp cận công chúng.

Đối với một số thứ, đó có thể chỉ là một sai lầm buồn cười hoặc không phải là vấn đề lớn nếu hệ thống AI hiểu sai sự thật. Trong các bối cảnh khác, nó có thể gây tử vong.Jesse LehrichĐồng sáng lập, Công nghệ có trách nhiệm

Lehrich nói: “Tác động và bản chất của tác hại phụ thuộc vào bối cảnh. “Đối với một số thứ, đó có thể chỉ là một sai lầm buồn cười hoặc không phải là vấn đề lớn nếu hệ thống AI hiểu sai sự thật. Trong các bối cảnh khác, nó có thể gây tử vong.”

Haller đã đề cập đến một sự cố xảy ra vào đầu năm nay, trong đó Hiệp hội Rối loạn Ăn uống Quốc gia (NEDA) tuyên bố sẽ thay thế nhân viên đường dây trợ giúp con người bằng một chatbot ngay sau khi công nhân bỏ phiếu thành lập công đoàn. Tuy nhiên, NEDA đã đóng cửa chatbot ngay sau đó, sau khi có báo cáo cho rằng “lời khuyên” của nó trên thực tế đã thúc đẩy việc ăn uống không điều độ. Ví dụ: người dùng Sharon Maxwell nói với NPR rằng chatbot đã đưa ra các mẹo giảm cân của cô ấy như hạn chế lượng calo.

Ngay cả khi những kết quả như vậy là vô tình, thì những tác động đó là có thật, nhấn mạnh tầm quan trọng của việc không vội vã triển khai AI không an toàn, được coi là kém. Townsend nói: “Bất kể mục đích là gì, nếu tác động của bạn là gây mất quyền lực, nếu tác động của bạn mang tính thiên vị và phân biệt đối xử… thì chúng tôi cũng có trách nhiệm sửa chữa sai lầm đó”.

Townsend cho biết, trong một hoặc hai năm tới, bạn có thể sẽ thấy thất vọng về khả năng của các công cụ như ChatGPT, đặc biệt là trong môi trường kinh doanh. Ông lưu ý rằng mối quan tâm ngày càng tăng đối với các mô hình AI tạo ra doanh nghiệp chuyên biệt so với các đối tác tiêu dùng nói chung của chúng. Thông thường, mối quan tâm này xuất phát từ mong muốn của các tổ chức về một mô hình an toàn, tùy chỉnh được tinh chỉnh trên dữ liệu nội bộ của họ, nhưng điều đó cũng có nghĩa là ít sai lệch hơn và tăng cường độ an toàn.

Townsend cho biết, trong các tập dữ liệu lớn có nguồn gốc từ việc quét web – chẳng hạn như dữ liệu được sử dụng để đào tạo ChatGPT – dữ liệu phổ biến nhất không phải lúc nào cũng chính xác nhất và thường mang tính phân biệt đối xử hơn. Do đó, việc kiểm soát tốt hơn dữ liệu và thực hành đào tạo, ngoài việc mang lại lợi ích kinh doanh, còn có thể dẫn đến các mô hình an toàn hơn và đáng tin cậy hơn.

Kết hợp an toàn theo thiết kế vào triển khai AI

Để giải quyết những tác hại tiềm ẩn, các công ty phải sớm cân nhắc vấn đề an toàn — bao gồm cả việc lập kế hoạch xử lý tốt nội dung có hại trước khi đưa bất kỳ thứ gì vào sản xuất.

Haller nói: “Chúng tôi chỉ cần các biện pháp bảo vệ và kiểm duyệt nội dung mạnh mẽ hơn, tốt hơn nhiều cho kết quả đầu ra của [AI”.

Điều này đòi hỏi phải tạo ra các công cụ và hướng dẫn dễ tiếp cận, cho phép các nhà phát triển AI xây dựng các sản phẩm an toàn hơn. Ví dụ: các công cụ để kiểm duyệt lời nhắc và cuộc trò chuyện có thể giúp đảm bảo các chatbot của doanh nghiệp luôn đi đúng chủ đề và không độc hại. Các biện pháp bảo vệ khác có thể bao gồm việc chặn hoặc hạn chế quyền truy cập đối với những người dùng liên tục cố gắng lách các biện pháp an toàn và rào chắn.

Sử dụng AI để giúp AI an toàn hơn

Sự giám sát liên tục của con người vẫn cần thiết để cập nhật các mô hình nhằm đáp ứng những nỗ lực ngày càng tăng nhằm ” bẻ khóa ” chúng thông qua các gợi ý sáng tạo, cũng như cân nhắc các trường hợp phức tạp. Nhưng tự động hóa và AI có thể giúp các công ty mở rộng quy mô kiểm duyệt để đáp ứng với lượng nội dung có hại ngày càng tăng, bảo vệ người kiểm duyệt trong quá trình này.

Haller nói: “Có rất nhiều nội dung thực sự khủng khiếp ngoài kia. “Không có lý do gì để tôi để người điều hành tiếp xúc với nó nếu tôi có thể loại bỏ nó ngay lập tức.”

Ví dụ: các mô hình phát hiện hành vi quấy rối hiện có có thể được tích hợp vào các ứng dụng chatbot để phát hiện ngôn ngữ lăng mạ trong lời nhắc và đầu ra. Haller nói: “Nếu chúng tôi có thể xây dựng các công cụ… để cung cấp khả năng kiểm duyệt nội dung và kết hợp an toàn theo thiết kế – sử dụng AI để làm cho AI an toàn hơn – thì tôi nghĩ rằng chúng tôi sẽ ở vị trí tốt hơn nhiều”.

Bản thân các mô hình AI tạo sinh có thể tạo ra dữ liệu tổng hợp có thể được sử dụng để tinh chỉnh các hệ thống kiểm duyệt và phát hiện nội dung. Dữ liệu được tạo nhân tạo mô phỏng gần giống nỗ lực lừa đảo hoặc bài đăng quấy rối trên mạng xã hội có thể được đưa vào các mô hình phát hiện để cải thiện khả năng xác định nội dung đó trong thế giới thực.

Townsend nói: “Nó thực sự là cùng một công cụ, nhưng nó được sử dụng cho mục đích có lợi thay vì có hại”.

Tương lai của quy định nội dung AI tạo sinh

Các quy định hiện tại và sắp tới sẽ định hình tương lai của việc phát triển và triển khai AI tạo sinh. Nhưng để có hiệu quả, chúng sẽ cần bao gồm những thay đổi trong cơ cấu khuyến khích hiện tại.

Nếu hậu quả của hành vi phi đạo đức hoặc trái pháp luật chỉ là “một cái tát vào cổ tay”, như Lehrich đã nói, thì các công ty AI sẽ không có động lực để triển khai AI một cách có trách nhiệm. Ông nói: “Bất kỳ hoạt động kinh doanh vì lợi nhuận nào cũng sẽ tiếp tục tối đa hóa giá trị dựa trên các quy tắc hiện có”.

Tuần trước, Nhà Trắng thông báo rằng bảy công ty AI hàng đầu đã đồng ý thực hiện các bước nhất định để phát triển AI một cách có trách nhiệm . Nhưng một số người, bao gồm cả Lehrich, tỏ ra nghi ngờ về các cam kết tự nguyện thiếu hiệu lực của pháp luật, chỉ ra sự thất bại của các nền tảng truyền thông xã hội trong việc tự điều chỉnh. Ông nói: “Nếu chúng ta thực sự quan tâm đến việc giảm thiểu những tác hại này thì chúng ta cần các biện pháp giải trình thực tế với cơ chế thực thi rõ ràng”.

Lehrich đề nghị bắt đầu bằng việc thực thi đầy đủ các luật hiện hành trước tiên, vì nhiều hoạt động sử dụng AI có hại có thể đã là bất hợp pháp theo các đạo luật hiện hành, chẳng hạn như luật chống phân biệt đối xử của liên bang. Ông nói, mặc dù các chi tiết cụ thể về cách áp dụng các luật đó cho AI vẫn chưa được giải quyết, nhưng việc phát triển án lệ đó có thể nhanh hơn việc viết và thông qua luật mới cho một công nghệ vẫn còn non trẻ.

“Tôi nghĩ cách chính để bạn thay đổi cơ cấu khuyến khích trước mắt, khi chúng tôi cố gắng ban hành luật và quy định mới, là đưa ra biện pháp thực thi mạnh mẽ khiến [các công ty] ít nhất phải suy nghĩ lại về những gì họ đang làm và những rủi ro.” là vi phạm luật hiện hành”, Lehrich nói.

Trong tương lai, các luật và chính sách mới có thể chuẩn hóa các kỳ vọng xung quanh việc đánh giá và giám sát rủi ro trước và sau khi triển khai AI. Về mặt phát triển mô hình, các công ty có thể được yêu cầu duy trì hồ sơ về những dữ liệu mà hệ thống AI đã được đào tạo, mục đích sử dụng mô hình của họ và những rủi ro có thể thấy trước, cùng với các biện pháp giảm nhẹ. Sau khi triển khai, điều này có thể được kết hợp với việc giám sát rủi ro liên tục, cùng với các lệnh cấm rõ ràng đối với một số cách sử dụng AI có hại nhất định.

Giáo dục và sự rõ ràng là chìa khóa để đánh giá chính xác rủi ro AI

Giáo dục thực tế về tác hại của AI cũng rất cần thiết đối với công chúng, các nhà lãnh đạo doanh nghiệp và các nhà hoạch định chính sách. Kiến thức AI tốt hơn cho phép đưa ra những quyết định sáng suốt về việc sử dụng nó và tính minh bạch khi người dùng tương tác với nội dung do AI tạo ra cũng có thể giúp giải quyết những lo ngại về thông tin sai lệch.

“Chúng tôi nghĩ rằng có sự quan tâm – hoặc chúng tôi nghĩ rằng nên có sự quan tâm – trong việc tìm cách xây dựng cơ sở hiểu biết và nhận thức rộng rãi của quốc gia về AI thực sự là gì,” Townsend nói khi đề cập đến công việc của ông với NAIAC, gần đây đã đưa ra khuyến nghị ban đầu về AI. “Bởi vì nếu nó là một công nghệ phổ biến như chúng ta nghi ngờ rằng nó sẽ phát triển, thì điều quan trọng là tất cả chúng ta phải có một số hiểu biết chung [về AI], giống như tất cả chúng ta đều có hiểu biết chung về điện.”

Tuy nhiên, Townsend cảnh báo rằng giáo dục nên tránh gây ra nỗi sợ hãi quá mức và nhấn mạnh quá mức vào những mối quan tâm mang tính giả thuyết. Ông nói: “Cuộc trò chuyện về AI có trách nhiệm phải bao gồm những lời hùng biện có trách nhiệm về AI”.

Các cuộc trò chuyện gần đây tập trung nhiều vào rủi ro hiện hữu của AI có thể gây hại nhiều hơn là có lợi, đặc biệt là khi những cuộc trò chuyện đó diễn ra loại trừ các cuộc thảo luận về những tác hại hiện tại như sai lệch thuật toán và thông tin sai lệch. Mặc dù có những rủi ro thực sự liên quan đến AI, nhưng điều quan trọng là phải giáo dục chính xác cho mọi người về những rủi ro đó, bao gồm cả những gì họ có thể kiểm soát để đối phó với chúng.

Townsend nói: “Là một nhà công nghệ, rõ ràng tôi muốn thấy mọi người sử dụng những khả năng này. “Là một công dân, tôi muốn thấy mọi người sử dụng những khả năng này theo những cách có lợi cho bản thân, cộng đồng và những người xung quanh.”

____
Bài viết liên quan
Góp ý / Liên hệ tác giả