10회 독서모임
– 책: 도덕적인 AI
– 날짜: 2025년 3월 12일
– 참여인원: 켄타, 쎈, 지한, 준석, 민정
AI 윤리와 데이터 활용에 대한 독서 모임 후기
– AI 기술적 설명 부족 및 개인 정보 활용에 대한 윤리적 측면의 자세한 설명 필요성 제기.
– 데이터 및 데이터 시각화 분야에 관심 있는 참여자의 후기와 책 내용의 어려움, 사례 중심 접근 방식에 대한 평가 포함.
인공지능 관련 서적 평가 및 분석
– 인공지능에 대한 배경지식이 부족한 경우 다소 어려울 수 있으나, 전반적인 내용은 흥미롭다는 평가가 있었다.
– 특히 자율주행 기술 등 특정 사례는 소설과 연결하여 이해하는 데 도움이 되었다는 의견이 제시되었다.
– AI 기술의 윤리적 측면과 개발 과정 등이 함께 다뤄져 후반부는 재미있었으나, 앞부분은 이해하기 어려웠다는 의견도 있었다.
인공지능 윤리 입문서 평가
– 인공지능 윤리에 대한 책 서평으로, 윤리와 안전에 대한 정의부터 시작해 구체적인 내용을 다룬 점을 긍정적으로 평가.
– 오픈AI가 펀딩한 책으로, 오픈AI의 관점이 반영되어 있다는 점을 언급.
– 인공지능의 개념 설명(ChatGPT, 좁은/범용/강한 AI 등) 부분은 간략하게 다루거나 건너뛰어도 된다고 제시.
AI 기술 서적의 구성 및 전달 방식 평가
– AI 기술 설명보다는 서적 구성 방식에 대한 비판 제기.
– 개별 내용은 우수하나, 전체적 연결성 부족 지적.
– GPT를 범용 AI로 언급하면서도 결론적 언급 부재 및 모호성 문제 제기.
인공지능 개발의 편향과 안전성 논의
– 인공지능 개발 과정에서 발생하는 편향과 편견의 원인을 설명하는 이론 제시.
– 기계학습 방식과 신경망 기술의 사용으로 인한 편견 발생 문제와 해결의 어려움 강조.
– 인공지능 개발 책임 소재와 사용자에 대한 논의 부재를 지적하며 안전성에 대한 질문 제기.
인공지능의 안전성에 대한 고찰
– 안전이라는 개념의 추상성과 예측 가능성의 중요성을 논하며, 인공지능의 안전성 확보를 위한 해결책 및 신뢰성 부족의 원인을 다룸.
– 인공지능의 실수 가능성과 지나친 신뢰에 대한 경험을 언급하며, 인공지능 의존 경향을 지적함.
– 인공지능 개발 과정에서의 윤리적 고려의 필요성과 편향성 문제(예: 해양 편향)를 제기함.
자율주행차 편향: 데이터의 한계와 시골 지역 적용의 어려움
– 자율주행차 학습 데이터의 편향으로 인해 피부색이 어두운 사람이나 특정 복장을 한 사람에게 불균형적인 영향을 미칠 수 있다는 점을 지적.
– 이는 미국 중심의 데이터셋, 대도시 위주 데이터 수집으로 인한 결과이며, 이로 인해 시골 지역에서는 자율주행차 성능 저하가 발생할 수 있다는 점을 설명.
– 특히 시골 지역의 무단횡단 문제는 AI가 학습하기 어려운 예측 불가능한 요소로, 자율주행차의 시골 지역 적용에 어려움을 야기할 수 있다고 분석.
AI 학습 데이터의 윤리적 문제점과 해결 방안 모색
– AI가 사고 지점을 파악하는 과정에서 발생하는 윤리적 문제점 제기. 학습 데이터 편향으로 인한 오류 가능성 지적.
– AI 개발 및 상용화 과정에서의 경제적 비효율성 언급. 대도시 집중 현상으로 인한 지역적 불균형 문제 제시.
– 윤리적 영향력 강화와 조직 문화 개선을 통한 해결책 제안. 코딩 과정에서의 실수 가능성과 인공지능 에이전트 개발 욕구 증가 언급.
코딩 보조 도구 사용 경험과 변화
– 초기에는 간단한 코딩 질문에 대한 즉각적인 답변으로 편리함을 느꼈으나, 복잡한 코드 수정 과정에서 의도치 않은 코드 변경으로 오류 발생 경험이 있었다.
– 코드 수정 시 문제 해결을 위해 질문을 단계적으로 나누어 질문하는 방식으로 전환하였고, 이는 효율성을 높였다.
– AI 코딩 도구 사용으로 인해 코딩 학습에 대한 의존도가 높아지고, 자체적인 코딩 능력 향상이 저해될 수 있다는 우려가 제기되었다.
AI 도구 활용과 개발자의 역할 변화
– 컴퓨터 공학 전공자가 AI 도구를 활용하는 상황과 그에 대한 의견을 논의함.
– AI 도구를 단순한 편리한 도구로 보고, 생산성 향상에 도움이 된다고 평가함.
– AI 도구 활용으로 인해 개발자가 새로운 기술을 학습해야 하는 필요성을 언급함.
AI 활용의 현주소와 장벽
– 데이터 분석 및 코딩 능력과 AI 활용의 연관성에 대한 논의가 있었다.
– AI(예: ChatGPT) 활용에 대한 기존 회사들의 망설임과 스타트업과의 대조적인 태도가 언급되었다.
기술 발전과 안전 및 프라이버시 이슈
– 유튜브 등을 통한 가짜 뉴스의 대량 생산으로 인한 안전 문제 심각성 언급.
– 개인 정보 유출 및 프라이버시 침해 사례 경험을 바탕으로 현실적인 문제점 제기.
AI시대 개인정보보호 위협과 대응 방안
– 인공지능 발달로 인해 개인정보 유출 위험이 증가하고 있다.
– 소량의 데이터만으로도 개인정보 복원이 가능해져 프라이버시 침해 우려가 심각해지고 있다.
– AI가 웹에 공개된 정보를 바탕으로 개인 정보를 제공하는 사례가 발생하고 있으며, 이에 대한 효과적인 대응 방안 마련이 시급하다.
데이터 암호화와 AI의 위협
– 개인 정보 데이터 공유 시 암호화 방식을 사용하지만, 데이터가 잘게 쪼개지거나 핵심 부분이 지워진 형태로 공유될 경우 해킹 위험이 존재한다.
– 온라인 시험 문제가 AI를 통해 유출된 사례가 있으며, 객관식 문제의 경우 유사 문제와 보기가 동일하게 생성되어 답이 유출될 수 있다.
– 뉴스에서 사용된 데이터가 간단한 보안 취약점으로 인해 유출된 사례가 있으며, 이는 AI 문제가 아닌 기본적인 정보 관리 소홀 때문이다.
AI 시대의 개인정보 유출 위험과 보안 취약성
– 기업 대상 서비스에서 개인 정보 유출 사고 발생, 이메일 주소 등에 코드 포함.
– AI 활용 정보 외에도 보안 취약점 존재, 특히 대규모 플랫폼의 위험성 부각.
– 개인정보 유출로 인한 전화, 문자 폭탄 및 목소리 복제 가능성으로 인한 심각한 문제 제기.
악성 메시지와 개인정보 유출 문제
– 개인 정보 수집에 대한 동의 절차의 문제점과 이로 인한 개인 정보 유출 위험성 제기.
– 추석 연휴 중 욕설이 포함된 주식 투자 관련 스팸 메시지 수신 경험 공유 및 피싱 메시지의 지속적인 발생 우려.
– 보이스피싱 피해 시 개인이 직접 모든 서류를 준비하고 방문하여 처리해야 하는 불편함 지적 및 해외 사례와의 비교 언급.
온라인 신분 도용 및 보이스피싱 피해 증가 추세
– 최근 보이스피싱 범죄가 지능화되고 있으며, 단순히 전화를 받는 행위만으로도 피해를 입을 수 있어 각별한 주의가 필요하다.
데이터 관리 및 음성 변조 기술
– 개인 데이터 권리 관리 단체 설립을 통한 데이터 거래의 용이성 확보 방안 제안.
– 보석금 판정 기준과 관련된 미국 사법 시스템의 특징 분석.
AI 편향성과 공정성 문제
– AI 계산 결과가 인종에 따라 달라지는 현상 발견.
– AI 알고리즘의 편향성이 입력값으로 작용, 결과값에도 영향을 미침.
– 미국 AI 시스템의 편향성은 특정 인종에게 불리하게 작용, 공정성 문제 제기.
AI의 사투리 인식 한계와 편향성 문제
– 작년 AI 강의 중 부산 사투리 회의록 분석 실패 경험 언급
– AI가 부산 사투리를 인식하지 못했던 점을 현재 기술과 비교하며 설명
– AI 딥러닝의 편향성 문제와 공정성 확보의 어려움을 지적
인공지능 판사의 공정성과 효율성
– 인공지능 판사 개발 과정에서 기존 데이터의 편향성 문제가 중요하게 다뤄짐.
– 인공지능 판사의 공정성은 100% 달성하기 어렵지만, 인간 판사보다 편향성이 적다면 성공으로 볼 수 있음.
– 인공지능 판사 도입으로 인한 비용 효율성 및 전처리 과정에서 편향 제거의 어려움 등이 논의됨.
공정한 데이터 세트 확보 방안 모색
– 공정성에 대한 수치를 수학적으로 정의하고 투명성을 확보해야 한다는 의견 제시.
– 기술적 보정을 통해 공정한 데이터 세트 확보 가능성 언급 및 공정한 데이터 세트의 함수적 정의 가능성에 대한 의문 제기.
– 공정한 데이터 세트 구성을 위해 관련자들의 민주적 논의 및 데이터 피처 수집 과정을 통한 방법 제시.
AI 모델 개발의 어려움과 책임 소재
– 스타트업의 AI 모델 개발 과정에서 다수의 이해관계자를 모아 의견을 수렴하는 것은 현실적으로 어렵다는 점을 지적.
– AI 모델 개발 과정의 투명성 확보가 어려우며, 특히 딥러닝의 인공 신경망 사용으로 인해 투명성 확보가 더욱 어렵다는 점을 언급.
– 자동차 사고를 예시로 들어 AI 모델의 책임 소재를 다각적으로 논의하며, 운전자, 회사, 정부 등 다양한 주체의 책임 여부에 대한 고찰을 제시.
자율주행차 사고 책임 공동분담 가능성
– 자율주행 우버 차량이 무단횡단 보행자와 사고를 발생시킨 사례 분석.
– 보행자의 무단횡단 및 약물 반응, 자율주행 소프트웨어 기능 해제 등 다양한 요인이 사고 원인으로 제기됨.
– 운전자, 보행자, 소프트웨어 회사, AI 개발자, 정부 등 다양한 주체의 책임 여부 및 공동 책임 가능성 논의.
자율주행 면허와 미래의 운전
– 2026년 테슬라의 자율주행 면허 발급 계획 언급, 핸들 없는 자율주행 시스템 특징 설명.
– 자율주행 시스템 도입으로 인한 운전 개념 변화와 한국의 골목길 환경 등을 고려한 면허 제도 개선 필요성 제기, 음주운전 문제 등 논란 발생 가능성 언급.
자율주행차 사고 책임 소재 논의
– 정부의 사고 책임은 제한적이며, 자동차 제조사의 책임이 더 중요하다고 주장.
– 자율주행차의 브레이크 작동 여부에 따라 책임 소재가 달라질 수 있다는 점 강조.
– 개인 대 기업의 소송에서 기업이 유리한 현실을 고려, 개인의 권리 보호 방안 필요성 제기.
자율주행차 사고 책임 판단의 어려움과 투명성 확보
– 자율주행 기술 개발 초기부터 사고 발생 시 책임 소재에 대한 논의가 지속되어 왔다.
– 사고 과실 비율 결정은 케이스마다 다르며, 향후 AI가 판단할 가능성이 제기되었다.
– AI 판단의 비투명성으로 인한 절차적 정의 문제와 항소 불가능성이 지적되었고, 투명성 확보 필요성이 강조되었다.
책임 공백과 기술 발전의 딜레마
– 기술 발전 속도가 빨라 책임 규명 및 정책 마련의 어려움을 지적. 인공지능 모델 개발자와 제품 제작자 간 책임 분담 모호성 강조.
– 책임 공백 발생 원인으로 기술적 이해도 부족과 개발, 제작 단계의 분리로 인한 책임 소재 불명확성 제시.
상향식 vs 하향식 AI 개발 방식 비교
– 인공지능 개발 방식으로 상향식(학습 기반)과 하향식(규칙 기반)을 비교하며, 각 방식의 실현 가능성과 어려움을 논의함.
– 상향식은 케이스별 학습으로 실현 가능성이 높지만, 방대한 케이스와 데이터 부족 문제에 직면할 수 있음을 지적.
– 하향식은 규칙(예: 로봇 3원칙) 기반이지만, 예외 상황 처리의 어려움과 윤리적 데이터 확보의 난관을 제시함.
상향식 vs. 하향식 접근의 한계
– 하향식으로 프로그래밍된 로봇에 3가지 원칙을 부여했음에도, 예측 못한 상황(상향식) 발생으로 인해 문제 발생.
– 인공지능의 도덕성 부여는 보편적 인류 도덕성 적용이 아닌, 데이터 편향성 수정 등 상향식 접근 필요성 제기.
– 인공지능의 지속적인 모니터링 및 업데이트 필요성 강조, 완벽한 데이터 부재 및 자원(돈) 문제 지적.
AI 개발의 윤리적 문제점과 해결 방안 모색
– 애자일 문화 기반의 AI 개발 방식의 안전성 문제점 제기.
– 윤리적 고려가 수익성과 상충되어 윤리적 영향력 감소 우려.
– AI 개발의 도덕적 원칙과 실천 간의 간극 해소를 위한 6가지 대안 제시 및 영화 ‘미키’를 통한 다른 시각 제시.
AI 개발의 속도와 윤리적 고민
– 영화 ‘미키’에서처럼 인간 대상화 문제가 AI 개발에도 적용될 수 있다는 우려 제기.
– AI 개발의 속도와 윤리적 문제 사이의 균형점을 찾는 어려움 강조. 노동자 대체 가능성과 책임감 있는 개발 필요성 언급.
– AI 개발 속도의 중요성과 윤리적 고려 사이에서의 갈등 상황 제시. 도덕적 AI 개발과 성능 향상 중 선택의 어려움을 보여줌.
모델 개선 전략: 위험과 책임
– 미국 사례를 언급하며, 일반인이 제작한 폭발물로 인한 피해와 책임 소재에 대한 논의가 있었다.
– 모델의 완벽하지 못한 점을 인지하고, 개선을 위한 시도를 여러 번 할 것이라는 의견이 제시되었다.
– 모델을 출시하고 문제 발생 시 수정하는 전략과, 다른 곳에서도 유사한 모델이 출시될 것이라는 예측이 나왔다.
AI 윤리 교육 및 기술 개발의 필요성
– AI 기술 개발 시 윤리 교육 강화 및 도덕적 AI 기술 도구 개발의 시급성 제기.
– 정부 차원의 지원을 통해 중소기업의 AI 윤리 준수 지원 및 데이터 스트레스 학습 도구 제공 필요성 강조.
– 기업의 자율적 노력뿐 아니라 시민 참여 유도 및 정부의 유연한 정책 변화 필요성 언급.
데이터 확보의 어려움과 규제 환경
– 중국 정부의 검열 문제와 해외 사용자를 위한 서비스 제공의 어려움에 대한 논의.
– 데이터셋 구축의 어려움과 스타트업의 현실적인 문제점, 정부 지원 부족에 대한 지적.
– 데이터 라벨링 비용 및 시민 참여 저조, 규제 샌드박스 제도의 효과 미흡 등의 문제 제기.
AI 윤리적 개발 방향 논의
– AI 관련 법안 발의 상황과 규제 미비에 대한 논의가 이루어짐.
– AI의 윤리적 설계를 위해서는 공정한 데이터셋을 사용해야 한다는 의견 제시.
– AI 개발 방식에 대한 두 가지 상반된 접근법(일단 만들어보기 vs. 충분히 고려 후 개발) 비교
오픈소스 AI 모델의 양면성
– 오픈소스로 공개된 AI 모델의 장점과 단점에 대한 논의.
– 접근성 향상으로 인한 긍정적 효과와 동시에, 악용 가능성 증대에 대한 우려 제기.
– 핵무기 개발의 비유를 통해 강력한 기술의 오픈소스 공개가 갖는 윤리적 문제점을 심층적으로 고찰.
인디게임 개발 환경의 규제와 자율성 문제
– 과거 한국 인디게임 개발자들의 소스 공유 카페 운영 사례가 있었음.
– 게임 관리 위원회의 규제로 카페 폐쇄, 게임 시장 발전 저해 우려와의 충돌 발생.
– 개발자들의 자율성과 게임의 부정적 활용 가능성 사이의 균형점 모색 필요성 제기.
오픈소스 공개의 양면성: 긍정적 효과와 부정적 위험성
– 딥러닝 기술 발전으로 유사한 기술들이 등장하여 긍정적 평가를 받았으나, 오픈소스 공개 시 제어 불가능성으로 인한 부정적 요소 발생 가능성 제기
– 오픈AI 및 AI 전문가들의 오픈소스 공개 반대 의견 존재, 악의적 활용 가능성 우려
– 오픈소스 활용의 장점에도 불구하고, 악의적 활용 가능성과 유기적 틀 미흡으로 인해 오픈소스 공개에 대한 신중한 접근 필요성 강조
기술 발전과 윤리적 고찰
– 악의적인 사용 가능성과 그에 따른 피해에 대한 우려와 함께, 기술 발전 속도에 비해 윤리적 준비가 부족하다는 의견 제시.
– 오픈소스 공개에 대한 찬반 의견과, 체계적인 준비가 필요하다는 주장, 그리고 인공지능 기술 발전으로 인한 접근성 변화에 대한 언급.
오픈소스 접근성 변화와 그 영향
– 초등학생도 쉽게 오픈소스를 사용할 수 있게 된 현실적 변화를 제시.
– 과거 오픈소스 사용의 높은 진입장벽과 달리 현재는 접근성이 거의 제로에 가까워짐.
– 이러한 변화로 인해 오픈소스의 활용이 긍정적 측면과 부정적 측면 모두를 동시에 가지게 될 것이라는 우려 제기.
AI 활용의 양면성과 윤리적 책임
– AI 기술의 활용에 따라 긍정적 또는 부정적 결과 발생 가능성 제기.
– AI 활용의 부정적 결과 파급력은 기존의 문제들과는 다른 차원일 수 있다는 우려.
– AI 개발 및 교육 과정에서의 윤리적 고려와 책임감 강조, 특히 AI 도구의 오용 가능성에 대한 경계 필요성 언급.
책 읽기 모임 후기: AI와 교육, 데이터 시각화
– 자원 재활용 관련 역사적인 내용이 아닌, 이과적 전공 지식을 활용한 책에 대한 논의가 있었다.
– AI가 공부하는 방식과 관련된 책, 특히 셀마 칸과 카나카데미(Khan Academy)를 언급하며 AI와 교육의 연관성을 다룬 책에 대한 관심을 보였다.
– 데이터 시각화 관련 책도 후보로 언급되었으며, 책의 분량에 대한 질문과 함께 다음 모임에서 다룰 주제에 대한 고민이 있었다.
데이터 시각화 관련 책
켄타
2025-03-12삭제
다음 책 후보 – 나는 AI와 공부한다, https://product.kyobobook.co.kr/detail/S000215130558
켄타
2025-03-12삭제
다음 책 후보 – 진료차트 속에 숨은 경제학, https://product.kyobobook.co.kr/detail/S000214614955,
김준석
2025-03-12삭제
기대: ai 도 학습을 통해서 만들어질텐데 학습하는 자료들이 윤리 또는 도덕적인지 판단을 어떻게 할지, 도덕적인 Ai 는 무엇일지 기대가 됩니다.
켄타
2025-03-12삭제
강민정 – 3/5, ” 도덕적인 AI ” 는 우리가 마주하고 있는 AI 시대를 바탕으로 기술적, 도덕적 측면에서 AI 의 위험성에 어떻게 대처해야 하는지를 담은 책이다. 무의식적으로 제공했던 개인정보에 대한 위험성 측면에서도 많은 생각을 할 수 있게 해준 책이었다.
SSEN
2025-03-12삭제
4/5 아직 절반밖에 보지 않아서 내용파악은 덜 되었지만 사례를 통해 풀어주는 AI라는 점에서 흥미로웠음. 다만 조금 어렵게 느껴지는건 저자들이 몸담고 있는 분야를 파악해야 따라갈 수 있겠다라는 생각.
지안
2025-03-12삭제
4/5
AI는 대략적인 의미만 알고있었는데 책 시작 부분이 AI가 무엇인지 설명을 해줘서 좋았고 내용이 살짝 어려워서 힘들었지만 뒤에는 여러 사례로 비교해줘서 이해하기 편했음 여러번 읽어봐야할 책이라고 느낌
켄타
2025-03-12삭제
3.5/5 점, 인공지능에 대한 성능과 경제관점에서가 아닌 다른 관점에서 볼 수 있게 안내서의 역할을 하고 있고, 윤리 또는 도덕이라고 하는 큰 숲에서 어떤 길들을 살펴봐야 하는지 알려주는 책