민식이법 위반 첫 사망사고 운전자 영장 신청

민식이법 위반 첫 사망사고 운전자 영장 신청

임송학 기자
임송학 기자
입력 2020-05-22 10:19
수정 2020-05-22 10:21
  • 기사 읽어주기
    다시듣기
  • 글씨 크기 조절
  • 댓글
    0
‘민식이법’(개정된 특정범죄 가중처벌 등에 관한 법률) 시행 이후 어린이 보호구역(스쿨존)에서 첫 사망사고를 낸 운전자에게 구속영장이 신청됐다.

전북 덕진경찰서는 22일 스쿨존에서 만 2세 유아를 들이받아 숨지게 한 혐의로 A(53)씨에 대해 구속영장을 신청했다고 밝혔다.

A씨에 대한 영장실질심사는 이날 오후 열릴 예정이다.

A씨는 지난 21일 낮 12시 15분쯤 전주시 덕진구 반월동의 한 도로에서 불법 유턴을 하다가 버스정류장 근처에 있던 B(2)군을 치어 숨지게 한 혐의를 받고 있다.

A씨는 경찰 조사에서 “아이를 미처 보지 못했다”고 진술했다.

경찰 관계자는 “사고 당시 차량은 30㎞이하로 달리고 있었던 것으로 추정되나 정확한 사실관계 파악을 위해 국립과학수사연구소에 조사를 의뢰했다.”고 말했다.

앞서 민식이법 위반으로 처음 적발된 사례는 지난 3월 경기 포천시에서 발생했다.

경기북부지방경찰청은 지난 3월 27일 포천시의 한 스쿨존에서 C(11)군을 차로 들이받아 다치게 한 혐의로 D(46)씨가 불구속 입건했다. 이 사고로 C군은 팔이 골절돼 전치 6주 진단을 받았다.

당시 D 씨가 몰던 차량의 시속은 39㎞로 확인됐다.

어린이 보호구역 내 안전운전 의무 위반으로 교통사고를 일으킨 가해자를 가중처벌하는 ‘민식이법’은 사망의 경우 무기 또는 3년 이상의 징역, 상해를 입혔다면 500만∼3000만원의 벌금이나 1∼15년의 징역에 처할 수 있도록 규정하고 있다.

전주 임송학 기자 shlim@seoul.co.kr
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지
close button
많이 본 뉴스
1 / 3
챗GPT의 성(性)적인 대화 허용...여러분의 생각은 어떤가요?
글로벌 AI 서비스 업체들이 성적인 대화, 성애물 등 ‘19금(禁)’ 콘텐츠를 본격 허용하면서 미성년자 접근 제한, 자살·혐오 방지 등 AI 윤리·규제 논란이 한층 가열되고 있다. 챗GPT 개발사인 오픈AI도 ‘GPT-4o’의 새 버전 출시 계획을 알리며 성인 이용자에게 허용되는 콘텐츠 범위를 확대하겠다고 밝혔다. 19금 대화가 가능해지는 챗GPT에 대한 여러분은 생각은 어떤가요?
1. 찬성한다.
2. 반대한다.
광고삭제
광고삭제
위로