Поддержать команду Зеркала
Беларусы на войне
  1. В Беларуси «взбесились» цены на товары. Эксперт прогнозирует, что ближайшие месяцы ситуация ухудшится
  2. От ограничений по карточкам до отказа от услуг. Банки анонсировали изменения, которые введут в августе
  3. В одном только СИЗО Бреста находились до 50 человек по «делу Гаюна» — Стрижак
  4. Это заболевание будет существовать вечно. Однажды оно уничтожило до трети населения Европы — рассказываем
  5. «Все эти полигоны подлежат закрытию». Чиновники рассказали о проблеме в ЖКХ — говорят, что она достигла критического уровня
  6. Прогноз по валютам: ждать ли доллар снова по 3 рубля? Неожиданное решение США
  7. Заместитель Келлога рассказал, как под водку проводил с Лукашенко переговоры об освобождении политзаключенных
  8. ЕРИП пояснил, какие изменения введет для клиентов с 1 августа
  9. ВСУ продвинулись к северу от Покровска, несмотря на массированные атаки — ISW
  10. «Не 3 гады, а 33 жыцця». Супруга экс-журналиста «президентского пула» Дмитрия Семченко подтвердила его выход на свободу


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».