ITFIND - 브레이킹 이슈
주메뉴바로가기 본문바로가기

브레이킹 이슈

Home > 동향정보 > 브레이킹 이슈
 
총 게시물 996건 ㅣ 현재페이지 1/100
AI 챗봇 ‘이루다’ 논란의 이슈 변화와 시사점
The controversy over Artificial Intelligence (AI) chatbot “Iruda,” which suspended its service 20 days after its launch, can be seen as the first case to inform the public of AI ethics issues. Based on this context, this study examines the controversy and social semantic formation of “Iruda” service cases using news topic modeling techniques. 963-news articles were used for the analysis, and the event’s duration was analyzed based on major events, such as service start, controversy, and suspension, to understand the progress. From the analyses results, we obtain major keywords and a total of 16 topics (5, 4, 7) from the period. Finally, the implications for the development and utilization of AI services obtained through this controversy were discussed based on the analysis results.
  • 등록일 : 2021-04-05
  • 발행일 : 2021-04-02
  • 출처: 한국전자통신연구원
인공지능 프로세서 컴파일러 개발 동향
The rapid growth of deep-learning applications has invoked the R&D of artificial intelligence (AI) processors. A dedicated software framework such as a compiler and runtime APIs is required to achieve maximum processor performance. There are various compilers and frameworks for AI training and inference. In this study, we present the features and characteristics of AI compilers, training frameworks, and inference engines. In addition, we focus on the internals of compiler frameworks, which are based on either basic linear algebra subprograms or intermediate representation. For an in-depth insight, we present the compiler infrastructure, internal components, and operation flow of ETRI’s “AI-Ware.” The software framework’s significant role is evidenced from the optimized neural processing unit code produced by the compiler after various optimization passes, such as scheduling, architecture-considering optimization, schedule selection, and power optimization. We conclude the study with thoughts about the future of state-of-the-art AI compilers.
  • 등록일 : 2021-04-05
  • 발행일 : 2021-04-02
  • 출처: 한국전자통신연구원
마이크로소프트 이그나이트 2021를 통해 본 인공지능 기술 혁신
이번 글에서는 이그나이트 2021에서 소개한 마이크로소프트에서 개발하거나 연구 중인 인공지능 기술을 살펴보면서 인공지능의 혁신과 진화 방향을 바라보고자 한다. 마이크로소프트의 인공지능과 혁신을 총괄하는 수석 부사장 미트라 아지지라드(Mitra Azizirad)의 발표가 이번 이그나이트에서 마이크로소프트 인공지능 기술 혁신의 핵심 내용이다.
  • 등록일 : 2021-03-31
  • 발행일 : 2021-03-30
  • 출처: 한국인터넷진흥원
마케팅연구에서의 머신러닝/AI 활용 동향 [AI TREND WATCH 2021-6호]
◈ 고객과의 터치포인트 증가와 인공지능의 발달이 촉발한 SNS 상호작용, 개인화, 실시간 자동화 등을 포함한 마케팅 환경변화는 다양하고 방대한 데이터의 수집으로 귀결 ▶ 고객의 심리와 행태를 상세하게 묘사한 다양한 유형의 데이터(비정형, 정형, 네트워크, 트래킹 데이터 등)를 분석할 수 있다는 점에서 마케팅 분야 연구에서의 머신러닝/AI의 비중 및 활용범위는 점차 증가 중 ▶ 분석 가능한 데이터 유형, 데이터의 양, 모형 유연성, 예측력에 있어 전통적 계량경제모형 대비 강점을 가짐 ▶ 모형의 복잡성과 기존 사회과학 이론과의 연계성 부족은 마케팅 분야를 포함한 사회과학 분야 연구에서의 머신러닝/AI 활용 확산에 장애요인으로 작용 ◈ 본 고에서는 Ma & Sun(2020)의 내용을 기반으로 마케팅 연구 분야에서의 머신러닝/AI 활용동향을 살펴보고, 머신러닝/AI를 활용한 마케팅 분야 연구의 지향점을 제시하고자 함
  • 등록일 : 2021-04-02
  • 발행일 : 2021-03-30
  • 출처: 정보통신정책연구원
중국 거대기업 바이두의 AI 만물지능 전략 [글로벌ICT이슈]
ㅇ 중국의 구글로 불리는 인터넷 기업 바이두는 기존 검색엔진 의존도를 낮추고 사업 다각화를 통해 인공지능에 매진 중 ㅇ 바이두는 초기투자와 신속한 사업 전환을 통해 인공지능 생태계에서 선두를 차지할 수 있었으며, 막강한 국내 수요로 인해 발전을 이룩함 ㅇ AI 강대국으로 알려져있는 미국뿐만이 아니라 중국 또한 눈여겨보고 인공지능의 동향 파악이 필요
  • 등록일 : 2021-04-09
  • 발행일 : 2021-03-25
  • 출처: 정보통신산업진흥원
유럽의 인공지능 윤리정책 현황과 시사점 [IS-114]
유럽(EU)은 2018년 4월 유럽AI전략을 수립한 이후 이의 실현을 위한 일련의 정책을 추진 중이다. 2019년 4월 발간한 『신뢰할 만한 AI윤리 가이드라인』과 2020년 7월 공개한 AI 윤리 『평가 목록(assessment list)』은 이러한 노력의 결과다. 이 작업은 52인으로 구성된 AI고위전문가 그룹(AI-HLEG)과 유럽AI연합회(European AI Alliance)를 통해 이루어졌다. AI고위전문가 그룹이 작성한 보고서 초안은 4,000여명의 이해관계자가 참여하는 유럽AI연합회를 통해 검토되었고 다양한 제안들이 최종 보고서에 반영되었다. 이 과정은 AI 윤리의 중요성과 핵심 AI 윤리 원칙, 실무에 있어서 구체적 고려사항을 산업계와 시민사회와 공유함으로써 내용과 절차의 투명성을 확보했다는 의미를 갖는다. EU의 AI 윤리 가이드라인은 인간의 기본권 존중을 AI 개발의 가장 기본적 원칙으로 삼고, 신뢰할 만한 AI의 속성으로 적법성(lawful), 윤리성(ethical), 견고성(robust)을 제안한다. 나아가 신뢰할 만한 AI의 7대 요구사항을 인간행위자와 감독, 기술적 견고성과 안전, 프라이버시와 데이터 거버넌스, 투명성, 다양성·차별금지·공정성, 사회·환경적 복지, 책임성 측면에서 정리했다. 이러한 요구 사항이 AI 개발 수명 주기에서 잘 충족이 되는지를 140여 가지 세부 평가 목록을 활용해 실무에서 점검할 수 있도록 하였다. 특히 실천적 AI 윤리를 위한 평가 목록은 기존의 원칙 선언 위주의 보고서와는 차별되는 EU AI고위전문가그룹의 기여라 평가된다. 우리나라는 2019년 12월 『인공지능 국가전략』을 발표하고, 일년 만인 2020년 12월 AI 윤리기준을 마련하였다. 지난 2021년 1월 발생한 AI챗봇 서비스 ‘이루다’ 사건은 AI 윤리 이슈의 중요성과 파급력을 부각시키는 계기가 되었다. 이제 AI 윤리는 원칙 선언에서 실천으로 옮기는 과정에 있다. 정부가 계획 중인 AI 윤리 체크리스트 마련이 대안이 될 수 있다. 다만 그 과정에서 다양한 이해관계자의 의견 수렴과 국제 사회와의 공조 및 관련 단체와 표준에 대한 지속적 동향 파악을 통해 윤리적인 AI 기술과 산업 혁신 촉진 사이의 균형 있는 정책적 접근이 요구된다.
  • 등록일 : 2021-03-26
  • 발행일 : 2021-03-25
  • 출처: 소프트웨어정책연구소
NeurIPS 2020을 통해 본 인공지능(AI) 기술 트렌드 [D.N.A 플러스 2021-2]
본 보고서는 NeurIPS 2020에서 발표된 논문을 바탕으로 괄목할만한 연구 분야 및 트렌드를 분석하여, 현재 인공지능 기술이 당면한 과제들과 향후 발전방향에 대한 분석을 수행 ① 1,898편의 NeurIPS 2020 논문 제목을 텍스트 마이닝을 활용하여, 총 6대 트렌드를 도출 ② 메타러닝, 연합학습, 자기지도학습, 강화학습, 그래프 기반 딥러닝, 생성적 적대 신경망 기술 트렌드 등 기술 분야 분석
  • 등록일 : 2021-03-18
  • 발행일 : 2021-03-18
  • 출처: 한국정보화진흥원
코로나 팬데믹과 AI 트랜스포메이션 : AI의 확산 및 경제적 성과 [AI TREND WATCH 2021-5호]
◈ 코로나19 위기 하에서 지속가능한 경영과 경쟁우위 확보를 위해 디지털 기반의 산업 혁신이 진행되는 가운데 기업의 AI 도입과 이를 통한 AI 트랜스포메이션이 주목받고 있음 ▶ 2020년 글로벌 조사에서 기업의 AI 채택률은 40%를 넘었고, 하이테크/통신 분야를 선두로 다양한 산업에서 AI가 채택되고 있음 ▶ AI 채택 여부가 기업의 성과에 큰 격차를 가져오고, AI 선도국과 지체국 간에도 경제적 측면에서 향후 격차가 더욱 커질 것으로 전망됨
  • 등록일 : 2021-03-18
  • 발행일 : 2021-03-15
  • 출처: 정보통신정책연구원
인공지능 기반의 지능형 가상비서 서비스의 특성과 미래전망
최근 인공지능 기술에 대한 발전과 관심으로 지능형 가상비서 서비스가 급속한 성장세를 보이고 있다. 현재 국내·외 기업에서는 인공지능 기반의 지능형 가상 비서 서비스를 적극 도입하며, 날씨, 교통, 일정 등에 대한 간단한 질의응답부터 사용자의 패턴분석을 통한 맞춤형 서비스 제안까지 점점 진화된 결과물을 제공하고 있다. 즉, 오늘날 인공지능 가상비서는 사람의 업무를 기계가 사람처럼 처리해 주는 모든 기능과 서비스로 총괄하여 설명할 수 있다. 따라서, 이와 같은, 지능형 가상비서는 사람의 언어로 소통하는 것을 가장 큰 특징으로 한다. 현재의 가상비서 기술은 1950년대부터 꾸준히 연구되었으며, 특히 최근 정보통신 기술이 증가하면서 사람들의 음성을 인식하고 이를 처리하는 기술이 더욱 발전하게 되었다. 이에 많은 기업들은 사람들의 음성 명령을 수행 하는 식으로 가상비서 서비스를 확장 시키고 있으며, 대화의 상황과 맥락에 기반한 응답 서비스를 제공하고 있다. 이렇듯 가상비서 서비스는 우리사회에서 꾸준하게 성장할 것으로 전망된다. 그러나, 가상비서가 제공하는 서비스의 문제점 역시 사회적 이슈로 제기되고 있다. 따라서 이러한 한계점을 극복하기 위해서는 가상비서 이용시 발생 될 수 있는 문제점들을 예방할 수 있는 방안을 고려해야 한다. 아울러, 우리사회의 따뜻한 돌봄이 요구되는 곳에 첨단 기술을 이용함으로써 사회적 문제를 해결하는 데 활용할 수 있는 방안을 더욱 고민할 필요가 있다.
  • 등록일 : 2021-04-08
  • 발행일 : 2021-03-15
  • 출처: 정보통신정책연구원
‘이루다’ 서비스로 본 AI 및 알고리즘의 윤리적 · 법적 쟁점과 대응방안
‘이루다’ 사건으로 AI의 윤리 문제가 수면위에 드러났고, 많은 우려와 함께 대응방안에 대한 논의가 활발하게 진행되고 있다. AI의 위험성은 이미 지속적으로 경고되어 온 것으로 이 문제를 해결하기 위해 국가와 기업, 학계와 단체 등 주체를 가리지 않고 윤리적, 규범적 논의를 다양하게 실시하고 있다. AI 기술에 대한 위험에 대응하기 위해 윤리적 규범과 원칙이 제시되고 있고 법률적·규제적 통제가 본격화되고 있기도 하고 있다. 이러한 상황속에서 발생한 ‘이루다’ 사건은 우리가 해당 논의를 함에 있어 무엇을 중요하게 여겨야 하는지에 대하여 다시 한번 고민하게 되는 계기가 되었다. 이 글에서는 ‘이루다’ 사건을 되짚어보면서 AI의 위험성을 통제하고 AI 기술과 공존하는 시대에 진입한 우리사회가 무엇을 준비해야 하는지 AI와 관련된 윤리적·법적 규범이 본질적으로 다루어야 하는 것은 무엇인지 그리고 어떻게 접근하는 것이 타당한지에 대해서 고민해보고자 한다.
  • 등록일 : 2021-04-08
  • 발행일 : 2021-03-15
  • 출처: 정보통신정책연구원