구구컬리지 인공지능 사용가이드

인공지능, 특히 대규모 언어 모델(LLM)은 우리가 일하고 소통하는 방식에 점진적이면서도 분명한 변화를 가져오고 있습니다. 이러한 기술은 업무의 효율성과 접근성을 높여줄 수 있는 가능성을 지니고 있지만, 동시에 활용 방식에 따라 주의 깊게 살펴야 할 부분도 함께 존재합니다. LLM은 매우 범용적인 도구인 만큼, 구구컬리지에서는 지향하는 가치와 책임에 어긋나지 않도록 어떤 상황에서, 어떤 방식으로 사용하는 것이 바람직한지에 대한 기준을 고민할 필요가 있었습니다. 기술 환경이 빠르게 변화하고 있어 모든 상황에 적용할 수 있는 고정된 규칙을 마련하기는 어렵지만, 그럼에도 불구하고 비영리 조직으로서 책임 있는 활용 원칙을 함께 정리해 두는 일은 의미가 있다고 생각합니다. 이러한 배경에서 구구컬리지는 인공지능 활용에 대한 기본적인 가이드를 마련하게 되었습니다.

LLM 활용에 대한 가치 기준

구구컬리지는 LLM을 활용함에 있어 특히 중요하게 고려하는 핵심 가치들을 아래와 같이 정리했습니다.

책임
LLM 활용에 있어 가장 중요한 기준은 책임감입니다. 아무리 뛰어난 기술이라 하더라도 LLM은 어디까지나 사람의 판단을 돕는 도구이며, 스스로 의사결정을 내리거나 책임을 질 수는 없습니다. 따라서 구구컬리지 구성원은 LLM을 활용해 만들어진 모든 결과물에 대해 최종적인 책임을 집니다. 이는 문서, 코드, 설명 자료, 이미지 등 결과물의 형태와 무관하게 동일하게 적용됩니다. 다시 말해, 모든 과정에는 사람의 판단이 반드시 포함되어야 하며, LLM이 생성한 산출물이라 하더라도 그 내용과 영향에 대한 책임은 전적으로 사람에게 있습니다.

투명성
인공지능이 콘텐츠 제작 과정에 관여했다면 반드시 이를 명시해야 합니다. 이는 비영리조직으로 신뢰를 유지하기 위한 핵심 원칙입니다.

엄밀함
LLM은 엄밀함의 측면에서 보면 양면성을 지닌 도구입니다. 적절하게 활용할 경우에는 사고의 부족한 부분을 점검하고 새로운 관점을 제시함으로써, 사고를 보다 정교하게 발전시키는 데 도움을 줄 수 있습니다. 반면, 충분한 검토 없이 사용할 경우에는 깊이 있는 사고를 대신해 생성된 문장에 의존하게 되어, 사고의 명확성과 깊이를 오히려 저해할 우려도 있습니다.
따라서 LLM은 언제나 사고의 엄밀함을 보완하고 강화하는 방향으로 활용될 때에만 의미 있는 도구가 될 수 있습니다. 특히, 사실·수치·정책·법령 등 정보는 반드시 사람이 검증해야 하며 인공지능의 답변 만을 근거로 의사 결정을 하지 않습니다.

조직
우리는 공동의 목표를 이루기 위해 함께 협력하며 일합니다. 따라서 LLM을 활용하는 과정에서도 서로에 대한 신뢰가 흔들리지 않도록 주의할 필요가 있습니다. 상황에 따라 LLM 사용이 자연스럽거나 기대되는 경우도 있고, 반대로 적절하지 않은 경우도 있을 수 있습니다. 오히려 LLM 사용을 지나치게 강조할 경우, 결과에 대한 책임을 도구에 전가 하는 인상을 줄 수 있으며, 이는 조직의 상호 신뢰를 약화 시킬 수 있습니다.

긴급성

많은 조직이 LLM을 단순히 업무 속도를 높이는 도구로만 인식하며, 긴급성을 지나치게 강조하는 경향이 있습니다. 그러나 명확한 방향과 기준 없이 속도 만을 앞세우는 접근은 오히려 위험을 키울 수 있습니다. 물론 긴급성은 중요한 요소이며, LLM이 업무 효율을 높이는 데 기여할 수 있는 것도 사실입니다. 다만 이러한 속도 향상은 책임, 투명성, 엄밀함, 조직이라는 기본 가치보다 앞설 수는 없습니다.

LLM의 다양한 사용 방식

1. LLM을 ‘독자’로 활용하기

LLM은 문서를 이해하고 핵심을 파악하는 능력이 뛰어나, 긴 문서의 요약이나 데이터시트·사양서와 같은 자료에 대한 질의 응답에 유용하게 활용될 수 있습니다. 다만, 다음과 같은 점에 유의해야 합니다.

  • 데이터 프라이버시
    • 외부 LLM 서비스(ChatGPT, Claude 등)에 문서를 업로드할 경우, 해당 내용이 모델 학습에 사용되지 않도록 설정되어 있는지 반드시 확인해야 합니다. 일부 서비스는 기본 설정이 학습 동의(opt-in) 상태이거나, 이를 “모델 개선에 기여”와 같은 완곡한 표현으로 안내하기도 하므로 각별한 주의가 필요합니다.
  • 사회적 기대와 역할

LLM은 문서 이해를 돕는 보조 도구로 활용할 수 있지만, 직접 읽고 판단해야 할 문서를 대신 읽게 해서는 안 됩니다. 예를 들어, 채용이나 평가와 같이 책임 있는 판단이 요구되는 상황에서는 LLM의 도움을 참고 수준으로 제한하고, 최종 판단은 반드시 사람이 직접 문서를 검토한 뒤 내려야 합니다.

2. LLM을 ‘연구자’로 활용하기

LLM은 간단한 정보 탐색이나 초기 조사 단계에서 유용한 도구가 될 수 있습니다. 다만, 연구 보조 수단으로 활용할 때에는 다음과 같은 한계를 충분히 인식할 필요가 있습니다.

  • 사용한 모델, 프롬프트, 설정에 따라 결과의 품질이 크게 달라질 수 있습니다.
  •  출처가 함께 제시되더라도, 해당 출처 정보 자체가 정확하다고 단정할 수는 없습니다.
  •  인터넷에는 이미 LLM이 생성한 부정확하거나 허위의 정보가 다수 존재합니다.
  •  실제 사실과 다른 내용이 그럴듯한 형태로 제시되는 경우도 적지 않습니다.

이러한 이유로, LLM을 연구에 활용할 때에는 다음 원칙을 따릅니다.

  • LLM의 결과를 그대로 신뢰하기보다는, 조사를 시작하기 위한 참고 자료(출발점)로 활용합니다.
  •  제시된 정보와 인용은 반드시 원문 출처를 직접 확인합니다.
  • 연구 결과와 그 활용에 대한 최종적인 책임은 도구가 아닌 사용자(사람)에게 있음을 분명히 합니다.

3. LLM을 ‘편집자’로 활용하기

문서가 이미 충분히 작성·정리된 상태라면, LLM은 문장 표현이나 구성의 흐름을 다듬는 데 유용하게 쓰일 수 있습니다. 문서의 가독성을 높이고, 어색한 표현을 정리하는 데 도움이 됩니다.

다만 다음과 같은 점에 주의해야 합니다.

  •  LLM은 때때로 지나치게 긍정적인 평가를 내리는 등 **과장된 칭찬**을 덧붙이기도 합니다.
  • 초안 단계에서 과도하게 사용하면 글의 방향이 흐려지거나, 문서 전체가 **LLM 특유의 문체로 바뀌는** 경우가 있습니다.

따라서 LLM은 가능하면 후반부 편집(윤문·구조 점검) 단계에서 제한적으로 활용하는 것이 바람직합니다.

4. LLM을 ‘작가’로 활용하기

이 영역에서는 특히 신중함이 필요합니다.
LLM이 작성한 글은 경우에 따라 유용할 수 있지만, 자칫하면 진부하고 상투적인 표현이 늘어나거나, AI가 작성했다는 인상이 쉽게 드러날 수 있습니다.

문제가 되는 이유는 다음과 같습니다.

  • 글의 진정성과 설득력이 약해질 수 있음
    • 독자는 “이 내용이 정말 작성자의 고민과 판단에서 나온 것인지” 확신하기 어렵습니다.
  • 독자와 작성자 사이의 신뢰가 흔들릴 수 있음
    • 일반적으로 독자는 글을 쓴 사람이 더 많은 고민과 노력을 들였다고 전제합니다.하지만 글이 대부분 자동 생성된 것이라면, 그 전제가 약해지고 독서 경험도 달라집니다.
  • 조직의 신뢰와 브랜드에도 영향을 줄 수 있음
    • 비영리 조직의 글은 특히 신뢰를 바탕으로 읽히므로, 자동 생성 문체가 강하게 드러나면 메시지의 진정성이 약해질 수 있습니다.

따라서 LLM은 글을 “대신 쓰게” 하기보다는, **구조 점검·문장 다듬기·표현 제안** 등 보조 용도로 제한하는 것이 좋습니다.

5. LLM을 ‘프로그래머’로 활용하기

LLM은 코드를 새로 작성하거나 반복 작업을 자동화하는 데 매우 유용합니다. 특히 실험용 코드, 보조 스크립트, 초안 작성에는 도움이 될 수 있습니다. 다만 실제 운영 환경과 가까워질수록 위험도 함께 커집니다.

LLM을 통해 코드를 생성할 때에는 다음 원칙을 반드시 지킵니다.

  • 결과물의 최종 책임은 작성자(담당자)에게 있습니다.
  •  LLM이 작성한 코드는 반드시 본인이 먼저 검토한 뒤 공유합니다.

    핵심은 언제나 같습니다.
    책임·엄밀함·팀워크의 원칙을 흔들지 않는 범위에서 활용합니다.

LLM 사용 지침


1. 인공지능 참여 명시 의무

구구컬리지가 외부에 배포하는 모든 콘텐츠에서 AI가 제작에 참여했다면 반드시 이를 명시해야 합니다.
표시 예시

  •  “이 문서는 인공지능의 도움을 받아 작성되었습니다.”
  •  “이 이미지는 AI 기술을 활용하여 제작되었습니다.”
  •  “본 영상의 일부 장면은 AI를 이용해 제작되었습니다.”
  •  “이 콘텐츠는 AI 기반 요약/편집 기능의 도움을 받았습니다.”

이 규정은 모든 문서·이미지·영상·음성·코드에 동일하게 적용됩니다.

2. 이미지·영상·음성 생성 지침


1. 저작권·윤리 기준

  • 특정 브랜드·캐릭터·작가 스타일 모방 금지
  • 초상권 침해 가능성 있는 이미지 자료 업로드 금지
  •  사실과 허구가 혼동될 수 있는 이미지 생성 금지

2. 이미지 생성 시

  • 교육·홍보용 콘텐츠는 “AI 생성 이미지” 문구를 포함
  • 미성년자 얼굴 기반生成 절대 금지

3. AI 영상 생성 시

  •  AI 합성 장면은 반드시 표시(가급적 합성 하지 않음)
  •  가짜 인터뷰·가짜 음성 등 오해를 유발하는 생성 금지

4. AI 음성 생성 시

  •  특정인의 목소리를 모방한 생성 금지
  •  TTS/AI 음성 사용 시 반드시 명시

3. 데이터 처리 원칙


업로드 금지 데이터 목록은 사용하지 않습니다.
대신 모든 데이터는 다음 원칙에 따라 전처리 합니다.

1. 최소 정보 업로드 – 업로드 목적에 불필요한 세부 정보는 모두 삭제.

2. 비식별 처리 (De-identification) – 이름·기관·위치·특정 사례 등 개인을 유추할 수 있는 요소 제거 또는 비식별처리

3. 데이터 학습 확인 및 기록 절차 및 지침

3-1. 데이터 학습 여부 확인

업로드 전 반드시 다음을 확인해야 합니다.

확인 항목

  •  “모델 개선을 위해 사용자 데이터를 사용” 옵션 OFF
  •  조직/팀 계정으로 로그인했는가
  •  학습 차단 정책이 공식적으로 명시되어 있는가
  •  개인정보보호법/GDPR 기준 충족 여부
    → 하나라도 불명확하면 업로드 금지.

3-2. 기록 보존 의무

AI 사용 과정은 다음 양식으로 내부 기록을 남긴다.
`[AI 활용 기록] 작성자: OOO 날짜: 2025-XX-XX 사용 도구: ChatGPT Team / Claude for Teams 등 데이터 학습 여부 확인: 완료 (Training Disabled) 데이터 보관 정책 확인: 완료 (30일 자동 삭제) 업로드 자료 종류: 예) 기획서 구조 일부 발췌 전처리 여부: 민감 요소 제거 AI 참여 범위: 요약 / 편집 / 이미지 생성 등 콘텐츠 내 AI 참여 명시: 완료 검토자: OOO, OOO (2인 확인)`

최종 점검 체크리스트

다음 8개 항목이 모두 YES일 때만 AI 활용이 허용됩니다.

  • ✔ AI가 제작에 참여했다면 콘텐츠에 명시했는가?
  • ✔ 데이터 학습 차단이 확실히 확인되었는가?
  • ✔ 기록 문서를 작성했는가?
  • ✔ 전처리(비식별 처리)를 완료했는가?
  • ✔ 업로드 목적이 명확하고 최소한인가?
  • ✔ 사실·정책·수치 정보를 별도로 검증했는가?
  • ✔ 구구컬리지의 가치(책임·투명성·공감)에 부합하는가?

구구컬리지는 인공지능 기술의 가능성을 적극적으로 활용하되, 비영리조직으로서의 책임, 투명성, 안전성을 가장 중요한 가치로 삼아 이를 운영합니다. 이에 따라 다음과 같은 원칙을 분명히 합니다.

🟦 인공지능은 인간의 판단과 의사결정을 돕는 도구이며, 모든 결과에 대한 책임은 사람에게 있습니다.

🟦 콘텐츠 제작 과정에서 인공지능이 활용된 경우, 그 사실을 외부에 투명하게 공개합니다.

🟦 데이터 보호를 위해 전처리, 학습 여부 확인, 사용 기록 등 필요한 절차를 엄격히 준수합니다.

🟦 모든 콘텐츠는 학습자와 사회에 대한 책임을 바탕으로, 윤리적 기준을 충실히 따릅니다.

*해당 문서는 https://rfd.shared.oxide.computer/rfd/0576 문서를 참조하였고 편집과정에 인공지능을 사용했습니다.