Штучний інтелект LaMDA від Google тепер можна протестувати (так, це в ньому інженер компанії побачив свідомість)
Штучний інтелект LaMDA запустили в бета-версії. Тепер користувачі можуть протестувати технології у застосунку AI Test Kitchen від Google. Раніше інженер Google Блейк Лемойн заявив, що AI-система чат-ботів LaMDA демонструє ознаки свідомості, і його звільнили з компанії.
Штучний інтелект LaMDA від Google відкрили для зовнішнього тестування. Наразі ті, хто хочуть більше дізнатися про його можливості, мають зареєструватися в AI Test Kitchen — у такий спосіб користувачі отримують потрібний доступ від компанії. Зараз тестування доступне в межах США і для користувачів Android, втім згодом його обіцяють розширити.
Сьогодні доступні три опції.
«Перше демо Imagine It дозволяє назвати місце та пропонує шляхи для дослідження вашої уяви. Друга опція — List It — дозволяє поділитися ціллю чи темою, і LaMDA розіб’є це на список корисних підзавдань. А в демонстраційній версії Talk About It (Dogs Edition) ви можете весело провести час за відкритою бесідою про собак і лише про собак. Остання опція досліджує здатність LaMDA триматися теми, навіть якщо ви намагаєтеся від неї відхилитися», — зазначають у компанії.
У Google кажуть, що тестували бота понад рік, зокрема й для пошуку потенційно шкідливих або хибних відповідей. Під час цього процесу виявили кілька «шкідливих, але непомітних результатів». У деяких випадках, підкреслюють у Google, LaMDA може викликати «токсичні реакції на основі упереджень у своїх навчальних даних». Відповідно, ШІ може генерувати стереотипні відповіді, орієнтуючись на стать чи культурне походження.
LaMDA (Language Model for Dialogue Applications) — система для створення чат-ботів зі штучним інтелектом від Google. Її завдання — імітувати мовні патерни, вивчаючи лексику в інтернеті.
У червні інженер Google Блейк Лемойн заявив, що LaMDA демонструє ознаки свідомості. Він працював над нею з 2021 року. Втім у Google пояснили, що думки Лемойна були «повністю необґрунтованими». Зрештою спеціаліста звільнили. Більше про це DOU розповідав тут.