[Summary] Multimodal Contrastive Decoding Variants (2)
카테고리: Multimodal
🔍 Abstract
이번 글에서는 마지막으로 최근 (5~6월) 에 발표된 4개의 논문에 대해 소개하겠다. 해당 논문들은 아직 특정 학회에 Accept되거나, 명확한 증명이 된 것이 아니기 때문에 가볍게 아이디어 위주로 파악하고자 한다.
- AvisC: Don’t Miss the Forest for the Trees: Attentional Vision Calibration for Large Vision Language Models (May 2024): LMM이 정답과는 무관한 부분의 Attention을 높게 주는 현상을 발견하고 이러한 토큰을 blind token이라 명명하였다. 그리고 기존 LMM과 Blind Token만 볼 수 있도록 한 LMM 간의 Contrastive Decoding을 수행하여 Object Hallucination을 개선하는 AVISC(Attentional Vision Calibration)을 제안하였다.
- RITUAL: Random Image Transformations as a Universal Anti-hallucination Lever in LVLMs (May 2024): Image Transformation을 통해 Augmented된 Image를 사용한 LMM과 원본 Image를 사용한 LMM의 Probability를 Ensemble하여 Object Hallucination을 개선하였다.
- CODE: Contrasting Self-generated Description to Combat Hallucination in Large Multi-modal Models (June 2024): LMM이 Image Description을 생성한 것으로 Image를 대체하는 경우 Semantic Information이 충분하지 않아 Hallucination이 발생하는 것을 관찰하였다. 따라서 기존 LMM과 Self-generated Description을 사용한 LMM 간의 Contrastive Decoding을 수행하여 Object/Complicated Reasoning Hallucination을 개선하였다.
- AGLA: Mitigating Object Hallucinations in Large Vision-Language Models with Assembly of Global and Local Attention (June 2024): LMM의 Visual Attention을 분석하여 특정 토큰에 대한 Attention만 높다는 것을 발견하고, 이를 Global Attention이라 명명하였다. 이는 위 논문인 AVISC와 동일한 관찰이다. 저자들은 GradCAM을 사용하여 이러한 토큰을 Masking하고, 다른 토큰들 즉 Local Attention에 집중하도록 하였다. 결과적으로 AGLA(Assembly of Global and Local Attention)을 제안하여 Object Hallucination을 개선하였다.
1. AvisC [24’]
1.1. Key Idea: Blind Token of Visual Input
저자들은 먼저 Image Token별로의 Attention을 분석하여 Blind Token이라는 것을 발견하였다. 즉, 동일한 Intensity를 가진 Uniform Image임에도 불구하고 특정 Image Token에만 Attention이 높은 것을 발견하였고, 따라서 저자들은 LMM이 특정 Image Token에만 Biased Attention을 준다고 판단하였다.
그러나 이러한 Blind Token은 성능에 악영향을 주는 경우가 많았고, 오히려 Blind Token이 없을 때 성능이 향상되는 것을 발견했다. 반대로 Blind Token이 아닌 Token들은 실제로 Output을 낼 때 중요한 역할을 하고 있는 것을 발견하였다. 즉, Blind Token은 오히려 Output을 방해하는 역할을 한다는 것이다.
1.2. Method: AvisC (Attentional Vision Calibration)
따라서 저자들은 기존 LMM과 Blind Token만 볼 수 있도록 한 LMM 간의 Contrastive Decoding을 수행하여 Object Hallucination을 개선하는 AvisC(Attentional Vision Calibration)을 제안하였다.
이제 문제는 Blind Token을 어떻게 정의할까 하는 것이다. 지금까지 분석에서는 모든 Layer의 Attention을 단순히 평균내어 사용하는 방식을 이용했지만, 저자들은 더 나아가서 단순 평균보다는 Attention이 높은 Layer에서만 Blind Token을 정의하는 것이 더 효과적일 것이라고 생각하였다. 그러나 모델마다 Attention의 정도가 Layer-wise로 달라 Dynamic Layer Selection을 진행하여야 한다.
저자들은 Attention Proportion을 다음과 같이 정의하였다. 여기서 $\mathbf{a}_ {h, q, k} ^ {i}$는 $i$번째 Layer의 $h$번째 Head의 Query $q$와 Key $k$의 Attention을 의미한다.
그리고 여기서 Top-P Sampling을 진행한다. 즉, 합이 $\gamma$ 이상이 될 때까지 Layer를 선택하는 것이다. 이를 통해 Dynamic Layer Selection을 수행할 수 있다. 저자들은 $\gamma = 0.5$를 사용하였다고 한다.
그리고 선택된 Layer에서 각 Image Token의 Attention을 계산하고, Attention이 높은 Token을 Blind Token으로 정의하였다.
1.3. Evaluation: POPE, MME, AMBER
전체 결과는 위와 같다. 분석에 따르면 AvisC는 Object Discrimination 혹은 Object Detection에 특히 강점을 보였다고 한다. 이러한 Blind Token Approach가 아예 Image를 보지 않는 것보다 효과적인 이유는 무엇일까? 저자들은 명확한 답을 제시하지는 않았다. 다만, Blind Token은 어느 정도 Image 정보를 많이 가지고 있고, 이 Token은 Image 중에서도 Hallucination을 주로 일으키는 원인이 된다. 따라서 이러한 Token은 Image를 아예 보지 않는 것보다 Hallucination을 선택적으로 잘 유발할 수 있다. 즉, VCD의 경우 Language Hallucination만 주로 일으키는 반면, AvisC의 경우 여기에 더해 Visual Hallucination까지 유발할 수 있다는 것이다.
1.4. Ablation: Masking
저자들은 이러한 Hallucinated LMM을 만들 때 기본적으로 Blind Token 외에는 0으로 Masking을 진행하였다. 여기서는 Alternative Approach를 통하여 모두 효과가 있음을 확인하였다.
2. RITUAL [24’]
2.1. Key Idea: Random Image Transformation
AvisC와 동일한 연구실에서 동일한 시간대에 제출된 논문이라는 점이 주목할 만하다. Approach는 아주 직관적인데, Image Augmentation을 수행하여 얻은 Output이 때로는 Contrastive Decoding보다 도움이 될 때가 있다는 것이다.
다만 위와 같이 오로지 Augmented Image를 사용하는 것은 오히려 성능을 떨어뜨리고, Ensemble을 통해 Augmented Image와 원본 Image를 모두 사용하는 것이 효과적임을 확인하였다.
2.2. Method: RITUAL (Random Image Transformations)
따라서 저자들은 Image Transformation을 통해 Augmented된 Image를 사용한 LMM과 원본 Image를 사용한 LMM의 Probability를 Ensemble하여 Object Hallucination을 개선하였다. 식을 통해 보면 다음과 같다.
2.3. Evaluation: POPE, MME, CHAIR
해당 방법은 VCD 또는 M3ID와 같은 방법론과 병용하여 사용할 수 있다는 점이 장점이다. 따라서 이러한 병용 사용의 경우 성능이 약간 더 향상되는 것을 확인할 수 있다. 표가 길어 일부는 생략되었다.
2.4. Limitation: Nature of Image Transformation
그러나 이러한 Image Transformation의 어쩔 수 없는 특성 때문에 오히려 Hallucination이 유발되는 문제가 발생할 수 있다. 위 그림에서는 Crop에 의해 Object가 Image에서 벗어나 Hallucination이 발생하는 것을 확인할 수 있다. 따라서 Image Transformation을 통해 Hallucination이 유발되는 경우가 있음을 주의해야 한다.
3. CODE [24’]
3.1. Key Idea: Limitation of Self-generated Description
저자들은 Vision Input과 Language Input의 Information Density 차이에 주목했다. 이를 정리하면 다음과 같다.
- Vision Input: Information Density가 낮다. 즉, 이미지의 일부 부분이 가려져 있어도 사람은 이미지 전반을 쉽게 이해할 수 있다.
- Language Input: Information Density가 높다. 즉, 문장의 일부 단어가 가려져 있으면 (특히 핵심 단어가 가려져 있으면) 그 단어를 예측하고 이해하는 것이 어렵다.
따라서 LMM이 Image Description을 생성한 것으로 Image를 대체하는 경우 Semantic Information이 충분하지 않아 Hallucination이 발생하는 것을 관찰하였다.
그러나 이는 동시대의 논문과 상충하는 부분이 있다. VDGD 논문에 따르면 Image Description 후에 Visual Reasoning을 수행하는 것이 성능을 향상시킨다고 한다. 이는 겉으로 볼 때는 상충되는 것처럼 보이나 Benchmark의 차이에 따라 설명할 수 있을 것 같다. VDGD에서 주로 다룬 Benchmark는 Knowledge-based Question으로 Vision과 Language Reasoning이 결합된 Task이다. 반면, CODE에서 주로 다룬 Benchmark는 MMVP, LLaVA-Bench와 같이 Vision Reasoning이 이루어져야 하는 시각적으로 복잡한 Task이다. 따라서 Vision Reasoning이 이루어져야 하는 Task에서는 Image Description을 사용하는 것이 불충분한 정보를 제공해 Hallucination을 유발할 수 있다는 결론을 내릴 수 있다.
3.2. Method: CODE (COuntering DEscription Contrastive Decoding)
Contrastive Decoding은 굉장히 직관적이다.
다만, 저자들은 여기서 $\alpha_ t$ 값을 adaptive하게 조절하도록 하여 novelty를 확보하였다. 저자들은 $v$와 $d$의 Token Distribution이 유사할 경우에는 오히려 이러한 Contrastive Decoding이 Hallucination을 유발할 수 있다고 판단하였다. 따라서 Token Distribution이 충분히 다를 때만 Contrastive Decoding을 수행하도록 하였다. 이때 Token Distribution은 Bounded Divergence 식을 사용하였다.
\[\mathcal{D}_ {\text{bd}} (P \Vert Q) = \frac{1}{2} \sum_ {i=1} ^ n (p_ i + q_ i) \log_ 2 \left( \vert p_ i - q_ i \vert ^ k + 1 \right)\]이러한 $\mathcal{D}_ {\text{bd}}$는 두 분포 $P$와 $Q$의 차이를 측정하는 방법으로, 값이 $0 \leq \mathcal{D}_ {\text{bd}} \leq 1$ 사이에 있다는 편리한 특징이 있다. 따라서 $\alpha_ t = 1 - \mathcal{D}_ {\text{bd}} (P_ t ^ v \Vert P_ t ^ d)$로 설정하였다.
추가로 Adaptive Plausibility Constraint 대신 새로운 Adaptive Information Constraint을 사용하였다. 여기서 $\beta_ t = \mathcal{D}_ {\text{bd}} (P_ t ^ v \Vert P_ t ^ d)$로 설정하여 두 Distribution이 다르면 다를수록 candidate token을 늘려 판단하도록 한다.
3.3. Evaluation: POPE, MMVP, LLaVA-Bench, MMHal-Bench
POPE, MMVP와 달리 LLaVA-Bench와 MMHal-Bench는 GPT-4 Assisted Evaluation이 필요하다. 전체적으로 SOTA를 달성하였다.
3.4. Ablation: Dynamic Restriction & Adaptive Information Constraint
저자들은 기존 논문들에서 사용된 값인 $\alpha = 1.0$과 $\beta = 0.1$을 사용하는 것보다 Dynamic Restriction과 Adaptive Information Constraint을 사용하는 것이 더 효과적임을 확인하였다. 그러나 다시 말하면, 적절한 Parameter Adjustment 없이는 오히려 Greedy Decoding보다도 성능이 떨어질 수 있다는 것을 알 수 있다. 따라서 충분히 Robust한가에 대해서는 의문이 남는다.
또한, VCD에 비해 Image Description을 생성하고, 다시 Probability Distribution을 계산해야 하기에 Computational Cost가 높다는 단점이 있다.
4. AGLA [24’]
4.1. Key Idea: Global Attention vs. Local Attention
저자들은 LMM의 Visual Attention을 분석하여 특정 토큰에 대한 Attention만 높다는 것을 발견하였다. 이를 Global Attention이라 명명하였다. 이는 위 논문인 AvisC와 동일한 관찰이다. AvisC에서는 이를 Blind Token으로 명명한 반면, AGLA에서는 이를 Global Attention으로 명명하였다. 저자들은 이러한 Global Attention이 Prompt-independent하다는 것을 관찰하였고, 따라서 prompt-dependent한 Local Attention이 무시되고 있어 Hallucination이 발생한다고 판단하였다.
따라서 저자들은 이러한 Global Attention을 Masking하고, 다른 토큰들 즉 Local Attention에 집중하도록 하였다. 이때 GradCAM을 사용하여 Global Attention을 Masking하였다.
그 결과, Prompt-dependent한 Local Attention의 Behavior를 관찰할 수 있었다.
4.2. Method: AGLA (Assembly of Global and Local Attention)
따라서 저자들은 AGLA(Assembly of Global and Local Attention)을 제안하여 Object Hallucination을 개선하였다. Global Attention과 Local Attention을 모두 사용하는 것으로, 식으로 표현하면 다음과 같다.
4.3. Evaluation: POPE, MME, CHAIR, LLaVA-Bench
성능은 위에서 제안된 다른 모델들과 비슷한 수준이다.
💡 Summary
지금까지 최근의 4가지 논문에 대해 소개하였다. 해당 논문들을 간단히 요약하면 다음과 같다.
- [24’] AvisC: Don’t Miss the Forest for the Trees: Attentional Vision Calibration for Large Vision Language Models
- Visual Hallucination을 유발하는, 과도한 Attention을 가진 Image Token을 발견하고 이를 Blind Token이라 명명함
- Blind Token만을 보는 Hallcinated LMM을 만들어 Contrastive Decoding을 수행하여 Object Hallucination을 개선함
- [24’] RITUAL: Random Image Transformations as a Universal Anti-hallucination Lever in LVLMs
- Image Transformation을 통해 Augmented된 Image를 사용한 LMM과 원본 Image를 사용한 LMM의 Probability를 Ensemble하여 Object Hallucination을 개선함
- [24’] CODE: Contrasting Self-generated Description to Combat Hallucination in Large Multi-modal Models
- Image Description을 생성한 것으로 Image를 대체하는 경우 Semantic Information이 충분하지 않아 Hallucination이 발생하는 것을 관찰하고, Self-generated Description을 사용한 LMM과 Contrastive Decoding을 수행하여 Object/Complicated Reasoning Hallucination을 개선함
- Image Description은 Vision과 Language Reasoning이 결합된 Task에서는 더 효과적일 수 있으나, Vision Reasoning이 이루어져야 하는 시각적으로 복잡한 Task에서는 Hallucination을 유발할 수 있음을 VDGD 논문과 비교하여 작성하였음
- Contrastive Decoding 시 Token Distribution에 따라 Parameter를 조절하는 Dynamic Restriction $\alpha_ t$, Adaptive Information Constraint $\beta_ t$을 사용하여 Hallucination을 더 정밀하게 개선함
- [24’] AGLA: Mitigating Object Hallucinations in Large Vision-Language Models with Assembly of Global and Local Attention
- Image Attention을 Prompt-independent한 Global Attention과 Prompt-dependent한 Local Attention으로 나누고, 기존 LMM이 Global Attention 값이 높아 Local Attention을 무시하고 있어 Hallucination이 발생한다는 것을 관찰함
- Global Attention을 Masking하고, Local Attention에 집중하도록 한 LMM과 기존 LMM을 Assembly하여 Object Hallucination을 개선함
📃 Reference
- [24’] AvisC: Don’t Miss the Forest for the Trees: Attentional Vision Calibration for Large Vision Language Models
- [24’] RITUAL: Random Image Transformations as a Universal Anti-hallucination Lever in LVLMs
- [24’] CODE: Contrasting Self-generated Description to Combat Hallucination in Large Multi-modal Models
- [24’] AGLA: Mitigating Object Hallucinations in Large Vision-Language Models with Assembly of Global and Local Attention
댓글 남기기