Apple ve své nové výzkumné studii ukazuje, jak lze velké jazykové modely (LLM) využít k analýze zvukových a pohybových dat za účelem přesnějšího rozpoznávání činností uživatele. Podle autorů mohou LLM výrazně zpřesnit interpretaci senzorických údajů, a to i v situacích, kdy je dostupného datového materiálu jen minimum. Studie s názvem Using LLMs for Late Multimodal Sensor Fusion for Activity Recognition se zabývá tím, jak lze jazykové modely zkombinovat s tradičními senzory (například mikrofonem či […]