Các công cụ AI tạo sinh như ChatGPT đang đi vào hoạt động luật, hứa hẹn mang lại hiệu quả cao hơn và tốn ít thời gian hơn cho các công việc mang tính học thuộc lòng. Nhưng vẫn có rủi ro xoay quanh tính chính xác, vấn đề đạo đức và quyền riêng tư.
Lĩnh vực pháp lý thường có đặc điểm là cách tiếp cận thận trọng, thận trọng trong việc áp dụng công nghệ. Nhưng các công cụ AI mới như ChatGPT của OpenAI đang âm thầm thu hút được sự chú ý của các luật sư.
Mặc dù ChatGPT và các mô hình ngôn ngữ lớn mạnh mẽ khác còn khá mới nhưng chúng đã được áp dụng rộng rãi một cách đáng ngạc nhiên trong lĩnh vực pháp lý. Theo một báo cáo tháng 8 năm 2023, hơn 40% luật sư được công ty phân tích và dữ liệu pháp lý LexisNexis khảo sát cho biết họ hiện đang sử dụng hoặc có kế hoạch sử dụng AI tạo sinh trong công việc pháp lý của mình.
Cheryl Wilson Griffin, Giám đốc điều hành của Legal Tech Consultants, chuyên tư vấn cho các công ty luật và khách hàng pháp lý khác về các vấn đề công nghệ, cho biết: “Đây có lẽ là 12 tháng thú vị nhất trong 20 năm sự nghiệp công nghệ pháp lý của tôi.
Vai trò ngày càng tăng của AI tạo sinh trong ngành luật
Thuật ngữ Generative AI đề cập đến các thuật toán học máy phức tạp có thể tạo ra nội dung mới, chẳng hạn như văn bản, hình ảnh hoặc mã lập trình, sau khi được đào tạo bằng một lượng dữ liệu khổng lồ.
Khả năng của Generative AI trong việc tạo ra nội dung có tính cụ thể cao để đáp ứng các truy vấn của người dùng đã thu hút sự quan tâm trong ngành pháp lý. Trong báo cáo của LexisNexis nói trên, gần như tất cả các luật sư được khảo sát (89%) đã nghe nói về AI tạo sinh như ChatGPT và 41% đã tự mình thử nghiệm một công cụ AI có khả năng tổng hợp thông tin. Nhưng trong lịch sử, các luật sư không phải lúc nào cũng nhanh chóng áp dụng các công nghệ mới.
Jake Heller là luật sư và Giám đốc điều hành của công ty hợp pháp AI Casetext, được Thomson Reuters mua lại vào tháng 11 năm 2023. Anh lớn lên ở Thung lũng Silicon và bắt đầu viết mã khi còn trẻ. Khi trở thành luật sư, Heller cảm thấy thất vọng vì tình trạng mờ nhạt của công nghệ pháp lý, đặc biệt là khi đặt cạnh các đối tác tiêu dùng như ứng dụng giao đồ ăn.
“Tôi thực sự cảm thấy mất cân bằng khi công nghệ hỗ trợ bạn tìm kiếm những thứ như “nhà hàng kiểu Thái”,… là cực tốt, trong khi công nghệ hỗ trợ doanh nghiệp, cứu người khỏi nhà tù oan sai, v.v… thì lại quá tệ và lạc hậu”, ông nói.
Mặc dù lĩnh vực pháp lý vẫn mang tiếng là hệ thống lỗi thời và chậm thay đổi, nhưng lĩnh vực này khó có thể bỏ qua AI hơn so với những tiến bộ công nghệ khác trong những thập kỷ gần đây, chẳng hạn như phân tích đám mây hoặc dữ liệu lớn. Sự ra mắt của ChatGPT đánh dấu một sự thay đổi đáng kể trong thái độ của các luật sư đối với AI – điều mà Heller mô tả là “khoảnh khắc thức tỉnh”.
Griffin nói: “Tôi nghĩ điều thực sự thú vị về điều này và khác với các công nghệ khác đang cố gắng phá vỡ hoặc thay đổi ngành pháp lý, đó là về phía người dùng”.
Giống như Heller, Troy Doucet, người sáng lập công ty khởi nghiệp AI hợp pháp AI.law, đã tìm được con đường đến với công nghệ pháp lý nhờ xuất thân là một luật sư. Các công ty luật như Doucet’s, tập trung vào việc phòng chống tịch thu tài sản và bảo vệ người tiêu dùng, thường cảm thấy áp lực phải tối đa hóa hiệu quả do những thách thức kinh tế mà các doanh nghiệp nhỏ phải đối mặt.
Khi Doucet bắt đầu khám phá khả năng tự động hóa các quy trình pháp lý của AI, ban đầu anh ấy quan tâm đến việc phát hiện vấn đề – xác định xem câu chuyện của khách hàng tiềm năng có làm phát sinh các khiếu nại pháp lý hay không. Ví dụ: phần mềm phát hiện vấn đề dành cho luật sư việc làm có thể phân tích xem liệu một tập hợp dữ kiện có hỗ trợ cho khiếu nại theo Đạo luật Tiêu chuẩn Lao động Công bằng hay không.
Doucet bắt đầu khám phá ứng dụng này vào khoảng thời gian bắt đầu xảy ra đại dịch COVID-19, cuối cùng đã thuê một nhân viên dữ liệu để giúp phát triển sản phẩm AI. Những gì bắt đầu như một công cụ hiệu quả trong công ty của Doucet dần dần phát triển thành một dự án rộng lớn hơn. Nhưng ngay từ đầu, tham vọng của ông đã bị cản trở bởi những hạn chế về mặt kỹ thuật.
Doucet nói: “Nó không thành công là bởi vì công nghệ không có sẵn cho nó”.
Tuy nhiên, Doucet cho biết, sự ra đời của ChatGPT là một nhân tố thay đổi cuộc chơi, cho phép anh dễ dàng làm việc với các mô hình GPT của OpenAI để thực hiện việc khám phá vấn đề trong chính công ty của mình. Cuối cùng, khi AI pháp lý trở nên phức tạp hơn, ông tin rằng những công cụ như vậy có thể cách mạng hóa các dịch vụ pháp lý: Hiệu quả tăng lên sẽ giảm chi phí pháp lý, từ đó có thể mở rộng khả năng tiếp cận của công lý.
Lợi ích của AI tạo sinh trong ngành luật
Phần mềm AI.law của Doucet và công cụ hàng đầu của Casetext, CoCounsel, được định vị là trợ lý hoặc đồng nghiệp pháp lý AI, phù hợp với cách tiếp cận “copilot” (trợ lý) được áp dụng trong các lĩnh vực khác . Nhìn chung, những người tạo ra chúng cho biết, mục tiêu không phải là thay thế các chuyên gia pháp lý thực sự mà là giao phó các nhiệm vụ phức tạp nhằm đạt được kết quả nhanh hơn và chất lượng cao hơn.
Không có gì đáng ngạc nhiên khi các lĩnh vực kiện tụng tốn nhiều thời gian nhất lại nằm trong số những lĩnh vực hấp dẫn nhất đối với tự động hóa. Griffin mô tả việc khám phá là lĩnh vực có “rủi ro cao nhất, có lợi nhuận cao nhất” khi giới thiệu AI tạo sinh mới và đó là một trong những lĩnh vực Doucet nhắm đến đầu tiên với AI.law.
Doucet nói: “Mọi đối tác đều giao cho các cộng sự cấp dưới công việc soạn thảo các phản hồi khám phá, bởi vì đó là một khía cạnh rất tẻ nhạt và không thú vị của công việc”. “Chúng tôi giảm thời gian đó xuống còn khoảng hai phút từ bốn đến tám giờ.”
Tương tự, CoCounsel bao gồm các tính năng, chẳng hạn như xem xét tài liệu và chỉnh sửa hợp đồng, đặc biệt hiệu quả khi luật sư cần xem xét lượng lớn thông tin một cách nhanh chóng.
Heller nói: “Đôi khi những thứ cản trở chúng tôi làm nhiều hơn không phải là những phần quan trọng, cấp bách, mang tính chiến lược cao nhất.
Thay vào đó, đó là những công việc lặp đi lặp lại, mệt mỏi như định dạng trích dẫn và trích xuất tài liệu liên quan từ hàng nghìn trang tài liệu. Ví dụ: Heller đã mô tả việc sử dụng công cụ AI trong một cuộc điều tra để phân tích các email, tin nhắn và văn bản Slack trong nhiều năm chỉ trong vài ngày, trái ngược với hàng tuần hoặc thậm chí hàng tháng.
Ông nói: “Ý tưởng xem xét hàng triệu tài liệu trong vài ngày trước khi có công nghệ này là điều không thể tưởng tượng được.
Griffin cũng chỉ ra rằng AI tạo sinh có thể giúp các công ty trong các lĩnh vực không liên quan đến việc thực hành luật trực tiếp, chẳng hạn như nhân sự và vận hành. Cô nói: “Tôi nghĩ có rất nhiều cơ hội để tự động hóa một số công việc ở văn phòng hỗ trợ. “Hiện tại có rất nhiều thứ mà chúng tôi phải trả rất nhiều tiền vì nó cực kỳ kém hiệu quả.”
Hạn chế của AI tạo sinh trong ngành luật
Bất chấp những lợi ích khác nhau của AI tạo sinh trong ngành luật, việc áp dụng thực tế dường như vẫn chưa được quan tâm. Griffin nói: Thường có “sự khác biệt giữa những gì các công ty đang hô hào và trong PR, với những gì họ đang làm và những gì thực sự đang xảy ra trong thế giới thực”. “Có một tỷ lệ nhỏ các công ty đã thực sự mua hoặc cố gắng triển khai bất cứ thứ gì.”
Điều này phù hợp với những phát hiện rộng hơn trong ngành. Nghiên cứu vào tháng 8 năm 2023 từ Nhóm Chiến lược Doanh nghiệp của TechTarget cho thấy 4% tổ chức được khảo sát đã triển khai sáng kiến AI có tính sáng tạo trưởng thành trong sản xuất, mặc dù nhiều người khác bày tỏ sự quan tâm đến công nghệ hoặc đã khám phá nó thông qua các dự án thí điểm.
Sự do dự đó không hẳn là điều xấu, vì việc mua các công cụ AI tạo sinh mà không có kế hoạch rõ ràng về cách sử dụng chúng thường dẫn đến thất vọng và vỡ mộng. Griffin cho biết, đôi khi, khách hàng của cô sẽ thấy rằng họ mua công nghệ mà không gặp vấn đề gì để giải quyết. Thay vào đó, cô khuyên các công ty luật trước tiên hãy xem xét nhu cầu của họ, sau đó quyết định xem liệu AI có thể đáp ứng những nhu cầu đó hay không.
Cô nói: “Từ quan điểm thực tiễn tốt nhất, hãy luôn bắt đầu từ vấn đề trước tiên”. “Đừng chỉ mua công nghệ và nói, ‘Chúng ta có thể làm gì với nó?’ … Hãy chắc chắn rằng bạn có kế hoạch trước khi mua.”
Hơn nữa, AI tạo sinh vẫn có những hạn chế đáng chú ý , đặc biệt đối với các lĩnh vực phức tạp như kiện tụng so với các nhiệm vụ mang tính công thức như soạn thảo hợp đồng. Griffin nhấn mạnh việc viết các chuyển động như một ví dụ về một nhiệm vụ ít soạn sẵn hơn nhưng vẫn khó để AI tạo ra có thể thực hiện tốt.
Cô nói: “[Chuyển động] ít được tiêu chuẩn hóa hơn nhiều nên tôi nghĩ việc phát triển một sản phẩm đáp ứng đủ nhu cầu của thị trường mà mọi người muốn sử dụng nó thực sự khó khăn”.
Heller lưu ý rằng có một nhóm nhiệm vụ mà con người hiện thực hiện tốt hơn nhiều so với AI – và có lẽ sẽ luôn như vậy. Chúng bao gồm việc lập chiến lược cho bức tranh toàn cảnh, chẳng hạn như quyết định cách theo đuổi một vụ án hoặc giải thích lịch sử lâu dài của bối cảnh kinh doanh, cũng như các kỹ năng giao tiếp giữa các cá nhân như phát hiện hành vi đáng ngờ ở một nhân chứng quan trọng hoặc nói chuyện thuyết phục trong phòng xử án.
Heller nói: “Nếu bạn nghĩ về những gì những AI này đã được đào tạo thì dữ liệu chính là những gì có trên internet”, chẳng hạn như sách và bài báo. “Nhưng bất kỳ ai có kinh nghiệm thực tế trong lĩnh vực luật đều biết rằng có rất nhiều điều bạn không thể nắm bắt được trong một cuốn sách. Nó đến từ kinh nghiệm, đào tạo và quan sát.”
Vấn đề về tính ảo giác (hallucination)
Tính chính xác là điều tối quan trọng trong thực hành pháp luật và ra quyết định tư pháp. Một tài liệu bao gồm ảo giác – nội dung đầu ra không chính xác do mô hình AI tạo sinh – có thể dẫn đến hiểu sai về quy chế, tiền lệ hoặc sự kiện.
Một mô hình có thể dễ dàng đưa ra lời giải thích cho một vụ kiện lớn của Tòa án Tối cao chẳng hạn như vụ Brown kiện Hội đồng Giáo dục , một quyết định nổi tiếng có dữ liệu internet được công bố rộng rãi. Nhưng việc nắm giữ một quan điểm luật thích hợp từ một tòa án quận cụ thể ít có khả năng nằm trong số những thông tin mà mô hình đã dần dần ghi nhớ.
Vấn đề là LLM được đào tạo để dự đoán sự kết hợp các từ có khả năng thống kê cao nhất để đáp lại lời nhắc chứ không phải để cung cấp thông tin thực tế chính xác. Điều này có nghĩa là xu hướng của họ là đưa ra một số phản hồi, ngay cả khi câu trả lời đúng cho câu hỏi của người dùng không có trong dữ liệu đào tạo của họ.
Heller nói: “Luôn có động cơ để trả lời. “[Các mô hình AI tạo sinh] sẽ không bao giờ nói,”Tôi không biết.”
Nguy hiểm hơn, các mô hình AI tạo sinh có thể sai nhưng nghe có vẻ rất thuyết phục. Nếu xét theo mệnh giá, ảo giác có thể ảnh hưởng đến kết quả của các vụ án pháp lý. Và nếu thẩm phán nhận ra rằng luật sư đã đưa nội dung gây ảo giác AI vào hồ sơ tòa án, điều đó có thể gây ra hậu quả nghiêm trọng.
Griffin nói: “Nếu bạn là một luật sư và có điều gì đó tồi tệ xảy ra, giấy phép của bạn sẽ bị đe dọa.
Ý nghĩa đạo đức của việc sử dụng một công cụ có thể tạo ra thông tin sai lệch hoặc gây hiểu lầm là rất đáng kể, đặc biệt là trong bối cảnh pháp lý nơi mỗi từ đều có trọng lượng đáng kể. Mặc dù không phải lúc nào cũng rõ ai phải chịu trách nhiệm về sự thiếu chính xác trong kết quả đầu ra của các mô hình AI tạo sinh, nhưng những ví dụ ban đầu cho thấy các luật sư có thể gặp khó khăn.
Vào tháng 6 năm 2023, một thẩm phán liên bang đã xử phạt luật sư Peter LoDuca và Steven Schwartz vì dựa vào án lệ không tồn tại do ChatGPT phát minh ra trong một bản tóm tắt pháp lý. Thẩm phán P. Kevin Castel của Quận Nam New York nhấn mạnh rằng vấn đề không phải là các luật sư đã sử dụng công cụ AI; đó là họ đã không xác minh kết quả đầu ra do AI tạo ra và đã không tiết lộ việc sử dụng ChatGPT khi các trường hợp bịa đặt lần đầu tiên được xác định.
“[T] ở đây vốn dĩ không có gì sai trái khi sử dụng một công cụ trí tuệ nhân tạo đáng tin cậy để hỗ trợ,” Castel viết trong lệnh trừng phạt LoDuca và Schwartz. “Nhưng các quy định hiện hành áp đặt vai trò canh gác đối với luật sư để đảm bảo tính chính xác của hồ sơ của họ.”
Hiện vẫn chưa rõ việc sử dụng các công cụ AI có thể gây ảo giác có thể ảnh hưởng đến việc tuân thủ luật pháp và quy định như thế nào. Luật sư phải tuân thủ các tiêu chuẩn và quy định chuyên môn nghiêm ngặt về việc xử lý và trình bày bằng chứng cũng như tính chính xác của tư vấn pháp lý. Ở mức tối thiểu, điều quan trọng là phải triển khai các quy trình xác thực và xác minh nghiêm ngặt đối với nội dung do AI tạo ra trong môi trường pháp lý.
Làm thế nào các chuyên gia pháp lý có thể tích hợp AI tạo sinh một cách có trách nhiệm
Một phương pháp để xử lý ảo giác là tạo tăng cường truy xuất (RAG), một kỹ thuật trong đó LLM có thể truy cập dữ liệu từ các nguồn bên ngoài để cải thiện độ chính xác và mức độ liên quan của phản hồi của chúng. Heller, người có phần mềm Casetext sử dụng RAG, đã so sánh việc giới thiệu RAG với việc chuyển từ bài kiểm tra sách đóng sang bài kiểm tra sách mở: Với RAG, mô hình có thể tra cứu thông tin trong thời gian thực mà nó không thể truy cập được.
Mặc dù điều này giúp đảm bảo rằng các phản hồi của AI dựa trên các văn bản pháp luật và án lệ thực tế, Heller cảnh báo rằng không có công cụ AI nào là không thể sai lầm. Ví dụ: ngay cả một công cụ AI sử dụng RAG cũng có thể hiểu sai một văn bản đặc biệt dày đặc và phức tạp. Nói tóm lại, luật sư không nên cho rằng AI có nhiều khả năng khách quan hoặc chính xác hơn con người.
Heller nói: “Bởi vì chúng tôi làm việc với con người nên chúng tôi đã quen làm việc với những sinh vật không hoàn hảo. “Đây là một trong chúng.”
Nhìn rộng hơn, Doucet, Heller và Griffin đều nhấn mạnh tầm quan trọng ngày càng tăng của kỹ năng quản lý đối với các chuyên gia pháp lý làm việc với AI. Điều này vượt xa việc kiểm tra độ chính xác để chống ảo giác: Luật sư sẽ cần học cách ủy quyền hiệu quả, đưa ra hướng dẫn rõ ràng và lập chiến lược bằng cách sử dụng các công cụ AI.
Heller nói: “Bây giờ, lần đầu tiên, tất cả mọi người – kể cả cộng sự trẻ nhất và trợ lý pháp lý của bạn – đều có thể có trợ lý AI này để họ có thể giao nhiệm vụ cho”. “Nhưng học cách quản lý thực sự rất khó khăn.” Ông chỉ ra những kỹ năng quen thuộc trong việc quản lý con người tại nơi làm việc, chẳng hạn như đưa ra những hướng dẫn rõ ràng, phân công nhiệm vụ và đưa ra những phản hồi hữu ích.
4 kinh nghiệm hay nhất để sử dụng AI tạo sinh trong luật
Mặc dù việc đưa AI tạo sinh vào thực tiễn pháp luật mang lại những rủi ro nhất định, nhưng các chuyên gia pháp lý có thể thực hiện các bước để triển khai AI tạo sinh một cách có trách nhiệm và an toàn nhất có thể.
1. Hiểu rõ khả năng và hạn chế của AI
Trước khi tích hợp AI vào hoạt động thực hành pháp luật hàng ngày, điều cần thiết là phải hiểu những gì AI có thể – và quan trọng không kém là không thể – làm. Tìm hiểu về khả năng xảy ra sai sót, thành kiến và ảo giác giúp làm rõ những lĩnh vực cần có sự giám sát của con người.
2. Sử dụng AI để hỗ trợ chứ không phải thay thế con người
Ở trạng thái hiện tại, AI có thể tạo ra còn lâu mới thay thế hoàn toàn một luật sư hoặc trợ lý pháp lý đã được đào tạo. Mặc dù AI thường hữu ích cho việc soạn thảo ban đầu, nghiên cứu sơ bộ và phân tích dữ liệu quy mô lớn, nội dung do AI tạo ra không bao giờ được đưa ra ngoài nếu chưa được xem xét. Giữ các quyết định cuối cùng và việc kiểm tra thực tế trong tay các chuyên gia con người.
3. Bảo vệ dữ liệu và quyền riêng tư của khách hàng
Mặc dù quy định về AI là một lĩnh vực phức tạp và phát triển nhanh , việc sử dụng AI gần như chắc chắn được bảo vệ bởi luật bảo mật dữ liệu hiện hành và các thỏa thuận bảo mật của khách hàng. Hãy thận trọng với dữ liệu nào được đưa vào hệ thống AI, đặc biệt là thông tin khách hàng nhạy cảm; ví dụ: phiên bản dành cho người tiêu dùng của ChatGPT lưu tất cả dữ liệu theo mặc định để đào tạo lại các mô hình của OpenAI.
Griffin nói: “Điều quan trọng là hiểu [mô hình AI] được xây dựng dựa trên điều gì và hiểu bạn đang cố gắng làm gì với nó, sau đó xác định rủi ro xung quanh điều đó giống như cách bạn làm với bất kỳ công nghệ nào khác”.
Điều quan trọng nữa là phải minh bạch với khách hàng về cách sử dụng AI trong trường hợp của họ, bao gồm cả những lợi ích và rủi ro tiềm ẩn. Lập kế hoạch về cách giải đáp những lo ngại của khách hàng về việc sử dụng AI tạo sinh, vì không phải tất cả khách hàng đều cảm thấy thoải mái với việc sử dụng công nghệ như vậy.
4. Tìm hiểu về AI và cập nhật thông tin thực địa
Luôn cập nhật về những phát triển mới nhất trong AI và ý nghĩa của chúng đối với việc thực hành luật thông qua nghiên cứu trực tuyến và trò chuyện với các chuyên gia AI. Càng ngày, các hiệp hội luật sư cũng cung cấp giáo dục AI như một phần của sự phát triển nghề nghiệp. Mùa thu năm ngoái, Hiệp hội Luật sư Thành phố New York đã tổ chức Hội nghị thượng đỉnh về Trí tuệ nhân tạo và Học máy cho các luật sư địa phương cung cấp tín chỉ giáo dục pháp luật thường xuyên.
Griffin nói: “Trong bất kỳ cuộc cách mạng nào, đều có tình trạng mất việc làm, nhưng tôi nghĩ cũng có một lượng cơ hội tương đương được tạo ra”. “Hãy là người đầu tiên học nó và bạn sẽ trở thành người không thể thiếu được.”
Theo Tech Target