Stop reasoning! When multimodal LLMs with chain-of-thought reasoning meets adversarial images
Recently, Multimodal LLMs (MLLMs) have shown a great ability to understand images. However, like traditional vision models, they are still vulnerable to adversarial images. Meanwhile, Chain-of-Thought (CoT) reasoning has been widely explored on MLLMs, which not only improves model’s performance, but...
প্রধান লেখক: | Wang, Z, Han, Z, Chen, S, Xue, F, Ding, Z, Xiao, X, Tresp, V, Torr, P, Gu, J |
---|---|
বিন্যাস: | Conference item |
ভাষা: | English |
প্রকাশিত: |
IEEE
2024
|
অনুরূপ উপাদানগুলি
অনুরূপ উপাদানগুলি
-
When LLMs meet cybersecurity: a systematic literature review
অনুযায়ী: Jie Zhang, অন্যান্য
প্রকাশিত: (2025-02-01) -
Adversarial Prompt Transformation for Systematic
Jailbreaks of LLMs
অনুযায়ী: Awoufack, Kevin E.
প্রকাশিত: (2024) -
SelfCheck: using LLMs to zero-shot check their own step-by-step reasoning
অনুযায়ী: Miao, N, অন্যান্য
প্রকাশিত: (2024) -
Philosophy, Adversarial Argumentation, and Embattled Reason
অনুযায়ী: Phyllis Rooney
প্রকাশিত: (2010-08-01) -
A comparison of chain-of-thought reasoning strategies across datasets and models
অনুযায়ী: Konstantin Hebenstreit, অন্যান্য
প্রকাশিত: (2024-04-01)