Я постоянно вижу повсюду посты, где люди делятся, как они...
101
Я постоянно вижу повсюду посты, где люди делятся, как они используют AI (LLM) для того или иного, — но в реальности LLM'ы не могут делать то, что им приписывают, пишет Лили Рэй.
По моему мнению, главная проблема здесь — которая была проблемой с первого дня, как эти инструменты стали общедоступны — в том, что они редко говорят, когда чего-то не знают или не могут сделать, но почти всегда все равно выдают уверенный ответ.
Для новичка или человека, не знакомого с AI, может быть захватывающе попросить ChatGPT "поработать кардиохирургом" или "притвориться налоговым экспертом" и получить уверенный, правдоподобный ответ.
Особенно на фоне всей этой медийной шумихи вокруг AI — кажется вполне логичным, что большинство людей предполагает, что это и есть та самая революционная, меняющая жизнь технология, которую нам обещали.
Но в реальности эти ответы могут быть полностью сгаллюцинированы и полны неточной или даже опасной информации.
Юзер часто не видит разницы.
И я не говорю, что я от этого застрахована: я сама много раз с тревогой обнаруживала неточные ответы в ChatGPT, только после того, как проверяла его ответ через Google.
Я не виню широкую публику за то, что LLM'ы вводят их в заблуждение; ведь нет никакого экзамена, чтобы начать пользоваться этой технологией, которая, как мы теперь узнаем, может быть по-настоящему опасной.
Реальная вина лежит на AI-компаниях за то, что они не смогли научить пользователей, что эти инструменты могут и чего не могут (хотя это, очевидно, противоречило бы их целям экстремального роста).
Но теперь, когда джинн выпущен из бутылки, очень тревожно думать, сколько некорректной информации циркулирует в интернете и в обществе, и сколько людей совершают ошибки — от безобидного неверного поворота на дороге до покупки не того лекарства.
Они никогда этого не сделают, но было бы здорово, если бы эти AI-компании предприняли более серьезные шаги, чтобы:
— обучать пользователей, как лучше использовать (или не использовать) эти инструменты;
— помечать, когда определенные темы опасны;
— улучшить способность инструментов говорить, когда они не уверены в своем ответе (или ввести какой-то индикатор уверенности??).
А еще можно, хз, принять законы, которые бы это регулировали.
¯\_(ツ)_/¯
@MikeBlazerX
Инсайты для узкого круга — в @MikeBlazerPRO
Ссылки из поста:– https://www.linkedin.com/feed/update/urn:li:activi...
– https://t.me/MikeBlazerX
– https://t.me/tribute/app?startapp=sE4X
Источник новости https://t.me/mikeblazerx/5889...

