ChatGPT w medycynie: ponad połowa diagnoz błędna
Silnik sztucznej inteligencji ChatGPT nie może być użyty jako narzędzie diagnostyczne w medycynie, bo w ponad połowie przypadków się myli – podsumowali kanadyjscy naukowcy z Uniwersytetu Zachodniego Ontario po przetestowaniu modelu na przypadkach pacjentów. ChatGPT umie jednak pisać czytelne odpowiedzi.
Dołącz do dyskusji: ChatGPT w medycynie: ponad połowa diagnoz błędna
Za diagnozę medyczną odpowiadają zupełnie inne algorytmy... tu chodzi często np. o wyłapywanie anomalii w wynikach badań czy zdjęciach prześwietleń.
Obawiam się, że to raczej ty nie rozumiesz zasady działania LLM-ów