나이지리아 난민캠프에서 자살폭탄 공격… “7명 사망”

나이지리아 난민캠프에서 자살폭탄 공격… “7명 사망”

류지영 기자
류지영 기자
입력 2016-04-22 20:22
수정 2016-04-22 20:26
  • 기사 읽어주기
    다시듣기
  • 글씨 크기 조절
  • 댓글
    0

무장단체 보코하람 소행 추정

카메룬과 국경을 맞댄 나이지리아의 한 난민 캠프에서 여성 2명이 자살폭탄 공격을 저질러 7명이 사망했다.

이슬람 극단주의 무장단체 보코하람의 공격이 빈번한 나이지리아 북동부 카메룬 접경 마을 반키(지도)에서 지난 20일(현지시간) 2명의 여성이 난민캠프를 겨냥한 자살폭탄 테러를 저질러 이 같은 피해가 발생했다고 현지 군 관계자를 인용해 AFP가 22일 보도했다.

 나이지리아군 대변인인 사니 우스만 대령은 현지에 통신시설이 갖춰지지 않아 사건접수가 늦어졌다며 “여성과 어린이 등 7명이 목숨을 잃었다. 이번 테러는 두 명의 자살 공격조가 저지른 일”이라고 밝혔다.

우스만 대령은 2명의 여성이 이날 오전 6시 반경 난민캠프 검문소 근처에서 허리에 두르고 있던 폭탄 조끼를 터뜨렸다며 “테러범 중 한 명은 현장에서 사망하고 나머지 한 명은 병원으로 옮기던 중 숨을 거두었다”며 부상자도 9명 발생했다고 덧붙였다.

 나이지리아 북부에 이슬람 신정국가 건설을 목표로 무장 공격을 일삼고 있는 보코하람은 종종 여성과 어린 소녀들을 이용해 사람이 붐비는 시장이나 버스 정류장, 군 검문소 등을 겨냥한 자살폭탄 공격을 일삼고 있다.

 류지영 기자 superryu@seoul.co.kr
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지
close button
많이 본 뉴스
1 / 3
챗GPT의 성(性)적인 대화 허용...여러분의 생각은 어떤가요?
글로벌 AI 서비스 업체들이 성적인 대화, 성애물 등 ‘19금(禁)’ 콘텐츠를 본격 허용하면서 미성년자 접근 제한, 자살·혐오 방지 등 AI 윤리·규제 논란이 한층 가열되고 있다. 챗GPT 개발사인 오픈AI도 ‘GPT-4o’의 새 버전 출시 계획을 알리며 성인 이용자에게 허용되는 콘텐츠 범위를 확대하겠다고 밝혔다. 19금 대화가 가능해지는 챗GPT에 대한 여러분은 생각은 어떤가요?
1. 찬성한다.
2. 반대한다.
광고삭제
광고삭제
위로