Image by Pexels from Pixabay

В коментар, публикуван от Journal of the American Medical Association, изследователи от Rutgers Health, Харвардския университет и Университета в Питсбърг обсъждат въздействието на нерегулираните приложения за мобилно здраве и генеративния изкуствен интелект (ИИ), които твърдят, че помагат за намаляване на употребата на вещества. Джон-Патрик Алем, член на Института „Рутгерс“ за изследвания на никотина и тютюна, доцент в Училището по обществено здраве „Рутгерс“ и старши автор на коментара, се фокусира върху необходимостта от по-голям надзор върху новите и неизпитани технологии, като например мобилното здравеопазване и генеративните приложения за изкуствен интелект, и защо публичните пазари се нуждаят от по-добри правила за управлението им. Алем обсъжда идеята, че по-голямата прозрачност и по-строгото регулиране биха могли да предпазят хората от подвеждане от информация, представяна като проверима информация за общественото здраве.

Изследванията показват, че някои мобилни здравни приложения могат да помогнат на хората да намалят употребата на вещества, като алкохол, поне в контролирани проучвания. Но в реалния свят тяхното въздействие е ограничено.

Сайтовете за приложения често рекламират продукти, които генерират приходи чрез реклами, а не такива, подкрепени от науката, така че най-видимите приложения понякога са непроверени или подвеждащи поради приоритизирането на приходите от реклами. В резултат на това приложенията, базирани на доказателства, може да са по-трудни за намиране. Систематичните прегледи на приложенията за намаляване на употребата на вещества постоянно показват, че повечето не използват доказани подходи, базирани на доказателства. Вместо това, те често правят смели твърдения за това колко са ефективни и използват научно звучащ език, за да изглеждат по-достоверни, отколкото са в действителност.

Интеграцията на генеративния изкуствен интелект в мобилното приложение за здраве залива пазара с нерегулирани и непроверени продукти поради бързото развитие и резултати от инструментите за генеративен изкуствен интелект. Въпреки че модели с общо предназначение, като ChatGPT, демонстрират, че достъпът до точна здравна информация потенциално се увеличава, съществуват сериозни пропуски в безопасността. Тези пропуски в безопасността могат да варират от предоставяне на неточна здравна информация до невъзможност за адекватно реагиране на кризисни ситуации и нормализиране на опасно поведение.

Източник: Medical Xpress