Trong hội nghị I/O của Google, hầu hết các cuộc thảo luận là về AI. Công ty đã ra mắt Google Bard như một sản phẩm thử nghiệm để trả lời ChatGPT của OpenAI (chúng thường được gọi là chatbot LLM hoặc chatbot Mô hình ngôn ngữ lớn). Có vẻ như đằng sau hậu trường, Google không hào hứng với các chatbot AI. Reuters hiện báo cáo rằng Google được cho là đã thông báo cho nhân viên cảnh giác với việc sử dụng các chatbot LLM, bao gồm cả Bard của chính Google.
Google lo lắng về quyền riêng tư và bảo mật, được cho là đã khuyên nhân viên hết sức cẩn thận khi sử dụng Google Bard
Có vẻ như Google đã phát hiện thấy một số vấn đề về quyền riêng tư và bảo mật có thể phát sinh khi nhân viên sử dụng Google Bard. Đầu tiên, công ty được cho là đã nói với các nhà phát triển của mình không sử dụng mã mà chatbot có thể tạo ra (tính năng tạo mã của Google Bard đã được giới thiệu trong hội nghị Google I/O). Chủ yếu, vấn đề dường như là bí mật của công ty. Nếu bạn đang theo dõi thế giới công nghệ di động (hoặc thế giới công nghệ nói chung), thì bạn đã thấy số lượng rò rỉ đáng kể đã diễn ra trong vài năm qua, làm hỏng các tiết lộ sản phẩm lớn.
Về cơ bản, nếu nhân viên nhập thông tin bí mật vào Bard hoặc ChatGPT, thông tin này có thể được công khai. Điều tương tự cũng áp dụng cho các chuỗi mã, có thể làm tổn hại đến tính bảo mật của mã, khiến các tin tặc tiềm năng có thể lợi dụng mã đó.
Các công ty khác như Samsung và Amazon được cho là cũng có rào cản khi nói đến AI.
Trong một bình luận gửi cho Reuters, Google cho biết họ cố gắng minh bạch về những hạn chế của Bard và cho biết khi nói đến mã, Bard có thể là một công cụ hữu ích mặc dù đôi khi nó có thể đưa ra những gợi ý không mong muốn.
Trong khi đó, Google được cho là đang đàm phán với Ủy ban bảo vệ dữ liệu của Ireland, sau khi trì hoãn việc ra mắt Bard ở Liên minh Châu Âu (một lần nữa, cơ quan quản lý của Ireland có những lo ngại về quyền riêng tư).