После выхода ставшего сенсацией ChatGPT компания Google запустила свой чат-бот – Bard
По следам нашумевшего чат-бота ChatGPT компания Google запустила свой аналог под названием Bard, также основанный на принципе искусственного интеллекта (ИИ). Пока Bard доступен лишь в США и Великобритании и только пользователям старше 18 лет. Разработчики называют его экспериментом и, рассказывая о превосходствах над ChatGPT, предупреждают и об изъянах. Подробности приводятся в материале ВВС.
Чат-бот - это компьютерная программа, призванная имитировать реальный диалог с пользователем. В ответ на его запрос она ищет в интернете информацию и компилирует из нее ответ, сформулированный максимально естественно.
Одно из основных отличий Bard от главного конкурента ChatGPT заключается в том, что бот компании Google имеет доступ к самой свежей информации, тогда как ChatGPT ограничен данными не новее 2021 года.
У Bard также есть кнопка Google It, позволяющая напрямую обратиться к поисковику.
Вдобавок к этому чат компании Google перечисляет названия источников, из которых он почерпнул информацию для ответа на вопрос пользователя, таких, например, как Wikipedia.
Для пользования Bard нужно зарегистрироваться, и это возможно только для тех, кому уже исполнилось 18 лет. Возрастное ограничение было установлено, в частности, для того, чтобы школьники не могли выдавать ответы бота за свое домашнее задание.
После выхода ChatGPT, моментально ставшего сенсацией, компания Google не стала торопиться с выпуском своей версии, дорабатывая ее возможности с большим акцентом на безопасность для пользователя.
В частности, бот Bard запрограммирован так, чтобы не отвечать на оскорбительные вопросы. Его фильтры не позволяют делиться вредоносным, нелегальным, непристойным контентом или персональными данными.
"Но как и с любыми инструментами, все эти преграды иногда могут и не сработать", - предупреждает Зубин Гахрамани, вице-президент Google Research - подразделения компании, занимающегося технологическими исследованиями.
Разработчики также предупреждают, что на данный момент не могут гарантировать полную объективность и отсутствие дезинформации в ответах бота.
Это происходит потому, что бот "учится" на основе данных из мира интернета, а он полон сомнительных или вовсе ложных утверждений. В своем обращении к пользователям, опубликованном на странице Bard, компания просит помогать ей находить оскорбительный или небезопасный контент, помечая его флажком.
Представители Google обязаны следить за тем, чтобы Bard не нарушал общих принципов компании в сфере работы с искусственным интеллектом и по максимуму избегал, в частности, создания или распространения недостоверной информации.
Материал полностью - по ссылке.