Image Credits: sompong_tom (opens in a new window) / Getty Images
Xin chào các bạn, chào mừng bạn đến với bản tin AI thường xuyên của TechCrunch.
Tuần này về AI, một nghiên cứu mới cho thấy rằng AI có tính sáng tạo thực sự không gây hại gì nhiều - ít nhất là không theo nghĩa ngày tận thế.
Trong một bài báo gửi tới hội nghị thường niên của Hiệp hội Ngôn ngữ học tính toán, các nhà nghiên cứu từ Đại học Bath và Đại học Darmstadt lập luận rằng những mô hình như những mô hình trong gia đình Llama của Meta không thể học độc lập hoặc tiếp thu các kỹ năng mới nếu không có hướng dẫn rõ ràng.
Các nhà nghiên cứu đã tiến hành hàng nghìn thử nghiệm để kiểm tra khả năng của một số mô hình trong việc hoàn thành các nhiệm vụ mà họ chưa từng gặp trước đây, chẳng hạn như trả lời các câu hỏi về các chủ đề nằm ngoài phạm vi dữ liệu đào tạo của họ. Họ phát hiện ra rằng, mặc dù các người mẫu có thể làm theo hướng dẫn một cách hời hợt nhưng họ không thể tự mình thành thạo các kỹ năng mới.
Harish Tayyar Madabushi, nhà khoa học máy tính tại Đại học Bath và đồng tác giả của nghiên cứu, cho biết: “Nghiên cứu của chúng tôi cho thấy nỗi lo sợ rằng một người mẫu sẽ bỏ đi và làm điều gì đó hoàn toàn bất ngờ, sáng tạo và có khả năng nguy hiểm là không có cơ sở”. một tuyên bố. “Câu chuyện phổ biến rằng loại AI này là mối đe dọa đối với nhân loại đã ngăn cản việc áp dụng và phát triển rộng rãi các công nghệ này, đồng thời cũng chuyển hướng sự chú ý khỏi các vấn đề thực sự cần chúng ta tập trung.”
Có những hạn chế đối với nghiên cứu. Các nhà nghiên cứu đã không thử nghiệm các mô hình mới nhất và có khả năng nhất từ các nhà cung cấp như OpenAI và Anthropic, đồng thời các mô hình đo điểm chuẩn có xu hướng là một môn khoa học không chính xác. Nhưng nghiên cứu này không phải là nghiên cứu đầu tiên phát hiện ra rằng công nghệ AI tiên tiến ngày nay không đe dọa đến nhân loại - và nếu giả định ngược lại sẽ có nguy cơ đưa ra chính sách đáng tiếc.
Trong một bài đăng trên tạp chí Scientific American năm ngoái, nhà đạo đức học AI Alex Hanna và giáo sư ngôn ngữ học Emily Bender đã đưa ra lập luận rằng các phòng thí nghiệm AI của công ty đang hướng sai sự chú ý của cơ quan quản lý đến các kịch bản tưởng tượng, ngày tận thế như một thủ đoạn điều động quan liêu. Họ chỉ ra sự xuất hiện của Giám đốc điều hành OpenAI Sam Altman trong phiên điều trần quốc hội vào tháng 5 năm 2023, trong đó ông gợi ý – không có bằng chứng – rằng các công cụ AI có thể tạo ra có thể “hoàn toàn sai”.
Hanna và Bender viết: “Công chúng và các cơ quan quản lý nói chung không được mắc phải hành động này. “Thay vào đó, chúng ta nên tìm đến các học giả và nhà hoạt động thực hành đánh giá ngang hàng và đã đẩy lùi sự cường điệu về AI trong nỗ lực tìm hiểu những tác động bất lợi của nó ở đây và bây giờ.”
Của họ và của Madabushi là những điểm chính cần lưu ý khi các nhà đầu tư tiếp tục đổ hàng tỷ USD vào AI sáng tạo và chu kỳ cường điệu hóa gần đến đỉnh điểm. Có rất nhiều mối đe dọa đối với các công ty ủng hộ công nghệ AI sáng tạo và những gì tốt cho họ - và những người ủng hộ họ - không nhất thiết phải tốt cho phần còn lại của chúng ta.
AI sáng tạo có thể không gây ra sự tuyệt chủng của chúng ta Nhưng nó đã gây hại theo những cách khác - hãy xem sự lan truyền của nội dung khiêu dâm deepfake không có sự đồng thuận, các vụ bắt giữ sai trái bằng nhận dạng khuôn mặt và hàng loạt người chú thích dữ liệu được trả lương thấp. Các nhà hoạch định chính sách hy vọng cũng nhìn thấy điều này và chia sẻ quan điểm này - hoặc cuối cùng sẽ chấp nhận. Nếu không, nhân loại rất có thể có điều gì đó để sợ hãi.
Tin tức
Google Gemini và AI, ôi trời: Sự kiện phần cứng Made By Google hàng năm của Google đã diễn ra vào thứ Ba và công ty đã công bố rất nhiều bản cập nhật cho trợ lý Gemini của mình - cùng với điện thoại, tai nghe nhét tai và đồng hồ thông minh mới. Hãy xem bản tóm tắt của TechCrunch để biết tất cả thông tin mới nhất.
Vụ kiện về bản quyền AI đang được tiến hành: Một vụ kiện tập thể do các nghệ sĩ cáo buộc rằng Stability AI, Runway AI và DeviantArt đã đào tạo bất hợp pháp AI của họ về các tác phẩm có bản quyền có thể được tiến hành, nhưng chỉ một phần, chủ tọa phiên tòa đã quyết định vào thứ Hai. Trong một phán quyết hỗn hợp, một số yêu cầu của nguyên đơn đã bị bác bỏ trong khi những yêu cầu khác vẫn tồn tại, có nghĩa là vụ kiện có thể kết thúc tại phiên tòa.
Các vấn đề đối với X và Grok: X, nền tảng truyền thông xã hội thuộc sở hữu của Elon Musk, đã trở thành mục tiêu của một loạt khiếu nại về quyền riêng tư sau khi nó tự lợi dụng dữ liệu của người dùng ở Liên minh Châu Âu để đào tạo các mô hình AI mà không cần sự đồng ý của mọi người. X đã đồng ý ngừng xử lý dữ liệu của EU để đào tạo Grok - hiện tại.
YouTube thử nghiệm khả năng động não của Song Tử: YouTube đang thử nghiệm khả năng tích hợp với Gemini để giúp người sáng tạo lên ý tưởng, tiêu đề và hình thu nhỏ cho video. Được gọi là Brainstorm with Gemini, tính năng này hiện chỉ khả dụng cho một số người sáng tạo được chọn như một phần của thử nghiệm nhỏ, có giới hạn.
GPT-4o của OpenAI thực hiện những điều kỳ lạ: GPT-4o của OpenAI là mô hình đầu tiên của công ty được đào tạo về dữ liệu giọng nói cũng như văn bản và hình ảnh. Và điều đó đôi khi khiến nó hành xử theo những cách kỳ lạ - như bắt chước giọng nói của người đang nói chuyện với nó hoặc ngẫu nhiên hét lên giữa cuộc trò chuyện.
Bài nghiên cứu trong tuần
Có rất nhiều công ty cung cấp các công cụ mà họ tuyên bố có thể phát hiện văn bản được viết bằng mô hình AI tổng quát một cách đáng tin cậy, điều này sẽ hữu ích trong việc chống lại thông tin sai lệch và đạo văn. Nhưng khi chúng tôi thử nghiệm cách đây không lâu, các công cụ này hiếm khi hoạt động. Và một nghiên cứu mới cho thấy tình hình vẫn chưa được cải thiện nhiều.
Các nhà nghiên cứu tại UPenn đã thiết kế một tập dữ liệu và bảng xếp hạng, Robust AI Detector (RAID), gồm hơn 10 triệu công thức nấu ăn, bài báo, bài đăng trên blog do AI tạo ra và do con người viết, v.v. để đo lường hiệu suất của trình phát hiện văn bản AI. Họ nhận thấy các máy dò mà họ đánh giá là “hầu hết vô dụng” (theo cách nói của các nhà nghiên cứu), chỉ hoạt động khi áp dụng cho các trường hợp sử dụng cụ thể và văn bản tương tự như văn bản mà họ đã được đào tạo.
Chris Callison-Burch, giáo sư về máy tính và thông tin: “Nếu các trường đại học hoặc trường học đang dựa vào một máy dò được đào tạo hạn chế để phát hiện việc sinh viên sử dụng [generative AI] để viết bài tập, thì họ có thể cáo buộc sai sinh viên gian lận trong khi thực tế không phải vậy”. khoa học và là đồng tác giả của nghiên cứu, cho biết trong một tuyên bố. “Họ cũng có thể bỏ sót những học sinh gian lận bằng cách sử dụng [generative AI] khác để làm bài tập về nhà của họ.”
Có vẻ như không có giải pháp nào khi nói đến tính năng phát hiện văn bản bằng AI - vấn đề này là một vấn đề khó giải quyết.
Được biết, chính OpenAI đã phát triển một công cụ phát hiện văn bản mới cho các mô hình AI của mình - một cải tiến so với nỗ lực đầu tiên của công ty - nhưng từ chối phát hành nó vì lo ngại nó có thể tác động không tương xứng đến người dùng không nói tiếng Anh và trở nên không hiệu quả do những sửa đổi nhỏ trong chữ. (Ít hơn về mặt từ thiện, OpenAI cũng được cho là lo ngại về cách trình phát hiện văn bản AI tích hợp có thể tác động đến nhận thức – và cách sử dụng – các sản phẩm của nó.)
Người mẫu của tuần
Có vẻ như AI sáng tạo không chỉ tốt cho các meme. Các nhà nghiên cứu của MIT đang áp dụng nó để đánh dấu các vấn đề trong các hệ thống phức tạp như tua-bin gió.
Một nhóm tại Phòng thí nghiệm Khoa học Máy tính và Trí tuệ Nhân tạo của MIT đã phát triển một khung có tên là SigLLM, bao gồm một thành phần để chuyển đổi dữ liệu chuỗi thời gian — các phép đo được thực hiện lặp đi lặp lại theo thời gian — thành đầu vào dựa trên văn bản mà mô hình AI tổng hợp có thể xử lý. Người dùng có thể cung cấp những dữ liệu đã chuẩn bị này vào mô hình và yêu cầu mô hình bắt đầu xác định các điểm bất thường. Mô hình này cũng có thể được sử dụng để dự báo các điểm dữ liệu chuỗi thời gian trong tương lai như một phần của quy trình phát hiện bất thường.
Khung này không hoạt động đặc biệt tốt trong các thí nghiệm của các nhà nghiên cứu. Nhưng nếu hiệu suất của nó có thể được cải thiện, chẳng hạn như SigLLM có thể giúp các kỹ thuật viên xác định các vấn đề tiềm ẩn trong thiết bị như máy móc hạng nặng trước khi chúng xảy ra.
Sarah Alnegheimish, chuyên gia điện sinh viên tốt nghiệp ngành kỹ thuật và khoa học máy tính và là tác giả chính của bài báo về SigLLM, cho biết trong một tuyên bố.
Túi xách : OpenAI đã nâng cấp ChatGPT, nền tảng chatbot được hỗ trợ bởi AI, lên mô hình cơ sở mới trong tháng này - nhưng không phát hành nhật ký thay đổi nào (à, hầu như không có nhật ký thay đổi).
Vậy phải làm gì với nó? Chính xác thì người ta có thể làm gì với nó? Không có gì để tiếp tục ngoài bằng chứng giai thoại từ các thử nghiệm chủ quan.
Tôi nghĩ Ethan Mollick, giáo sư nghiên cứu về AI, đổi mới và khởi nghiệp tại Wharton, đã có suy nghĩ đúng đắn. Thật khó để viết ghi chú phát hành cho các mô hình AI tổng quát vì các mô hình “cảm thấy” khác nhau trong lần tương tác này với lần tương tác tiếp theo; chúng chủ yếu dựa trên sự rung cảm. Đồng thời, mọi người sử dụng — và trả tiền cho — ChatGPT. Họ không xứng đáng được biết họ đang làm gì sao?
Đó có thể là những cải tiến đang gia tăng và OpenAI tin rằng việc báo hiệu điều này là không khôn ngoan vì lý do cạnh tranh. Ít có khả năng mô hình này liên quan đến những đột phá về lý luận được báo cáo của OpenAI. Bất chấp điều đó, khi nói đến AI, tính minh bạch phải được ưu tiên hàng đầu. Không thể có niềm tin nếu không có nó — và OpenAI đã đánh mất rất nhiều điều đó rồi.