인공지능, 특히 대규모 언어 모델(LLM)은 우리가 일하고 소통하는 방식에 점진적이면서도 분명한 변화를 가져오고 있습니다. 이러한 기술은 업무의 효율성과 접근성을 높여줄 수 있는 가능성을 지니고 있지만, 동시에 활용 방식에 따라 주의 깊게 살펴야 할 부분도 함께 존재합니다. LLM은 매우 범용적인 도구인 만큼, 구구컬리지에서는 지향하는 가치와 책임에 어긋나지 않도록 어떤 상황에서, 어떤 방식으로 사용하는 것이 바람직한지에 대한 기준을 고민할 필요가 있었습니다. 기술 환경이 빠르게 변화하고 있어 모든 상황에 적용할 수 있는 고정된 규칙을 마련하기는 어렵지만, 그럼에도 불구하고 비영리 조직으로서 책임 있는 활용 원칙을 함께 정리해 두는 일은 의미가 있다고 생각합니다. 이러한 배경에서 구구컬리지는 인공지능 활용에 대한 기본적인 가이드를 마련하게 되었습니다.
구구컬리지는 LLM을 활용함에 있어 특히 중요하게 고려하는 핵심 가치들을 아래와 같이 정리했습니다.
책임
LLM 활용에 있어 가장 중요한 기준은 책임감입니다. 아무리 뛰어난 기술이라 하더라도 LLM은 어디까지나 사람의 판단을 돕는 도구이며, 스스로 의사결정을 내리거나 책임을 질 수는 없습니다. 따라서 구구컬리지 구성원은 LLM을 활용해 만들어진 모든 결과물에 대해 최종적인 책임을 집니다. 이는 문서, 코드, 설명 자료, 이미지 등 결과물의 형태와 무관하게 동일하게 적용됩니다. 다시 말해, 모든 과정에는 사람의 판단이 반드시 포함되어야 하며, LLM이 생성한 산출물이라 하더라도 그 내용과 영향에 대한 책임은 전적으로 사람에게 있습니다.
투명성
인공지능이 콘텐츠 제작 과정에 관여했다면 반드시 이를 명시해야 합니다. 이는 비영리조직으로 신뢰를 유지하기 위한 핵심 원칙입니다.
엄밀함
LLM은 엄밀함의 측면에서 보면 양면성을 지닌 도구입니다. 적절하게 활용할 경우에는 사고의 부족한 부분을 점검하고 새로운 관점을 제시함으로써, 사고를 보다 정교하게 발전시키는 데 도움을 줄 수 있습니다. 반면, 충분한 검토 없이 사용할 경우에는 깊이 있는 사고를 대신해 생성된 문장에 의존하게 되어, 사고의 명확성과 깊이를 오히려 저해할 우려도 있습니다.
따라서 LLM은 언제나 사고의 엄밀함을 보완하고 강화하는 방향으로 활용될 때에만 의미 있는 도구가 될 수 있습니다. 특히, 사실·수치·정책·법령 등 정보는 반드시 사람이 검증해야 하며 인공지능의 답변 만을 근거로 의사 결정을 하지 않습니다.
조직
우리는 공동의 목표를 이루기 위해 함께 협력하며 일합니다. 따라서 LLM을 활용하는 과정에서도 서로에 대한 신뢰가 흔들리지 않도록 주의할 필요가 있습니다. 상황에 따라 LLM 사용이 자연스럽거나 기대되는 경우도 있고, 반대로 적절하지 않은 경우도 있을 수 있습니다. 오히려 LLM 사용을 지나치게 강조할 경우, 결과에 대한 책임을 도구에 전가 하는 인상을 줄 수 있으며, 이는 조직의 상호 신뢰를 약화 시킬 수 있습니다.
많은 조직이 LLM을 단순히 업무 속도를 높이는 도구로만 인식하며, 긴급성을 지나치게 강조하는 경향이 있습니다. 그러나 명확한 방향과 기준 없이 속도 만을 앞세우는 접근은 오히려 위험을 키울 수 있습니다. 물론 긴급성은 중요한 요소이며, LLM이 업무 효율을 높이는 데 기여할 수 있는 것도 사실입니다. 다만 이러한 속도 향상은 책임, 투명성, 엄밀함, 조직이라는 기본 가치보다 앞설 수는 없습니다.
LLM은 문서를 이해하고 핵심을 파악하는 능력이 뛰어나, 긴 문서의 요약이나 데이터시트·사양서와 같은 자료에 대한 질의 응답에 유용하게 활용될 수 있습니다. 다만, 다음과 같은 점에 유의해야 합니다.
LLM은 문서 이해를 돕는 보조 도구로 활용할 수 있지만, 직접 읽고 판단해야 할 문서를 대신 읽게 해서는 안 됩니다. 예를 들어, 채용이나 평가와 같이 책임 있는 판단이 요구되는 상황에서는 LLM의 도움을 참고 수준으로 제한하고, 최종 판단은 반드시 사람이 직접 문서를 검토한 뒤 내려야 합니다.
LLM은 간단한 정보 탐색이나 초기 조사 단계에서 유용한 도구가 될 수 있습니다. 다만, 연구 보조 수단으로 활용할 때에는 다음과 같은 한계를 충분히 인식할 필요가 있습니다.
이러한 이유로, LLM을 연구에 활용할 때에는 다음 원칙을 따릅니다.
문서가 이미 충분히 작성·정리된 상태라면, LLM은 문장 표현이나 구성의 흐름을 다듬는 데 유용하게 쓰일 수 있습니다. 문서의 가독성을 높이고, 어색한 표현을 정리하는 데 도움이 됩니다.
다만 다음과 같은 점에 주의해야 합니다.
따라서 LLM은 가능하면 후반부 편집(윤문·구조 점검) 단계에서 제한적으로 활용하는 것이 바람직합니다.
이 영역에서는 특히 신중함이 필요합니다.
LLM이 작성한 글은 경우에 따라 유용할 수 있지만, 자칫하면 진부하고 상투적인 표현이 늘어나거나, AI가 작성했다는 인상이 쉽게 드러날 수 있습니다.
문제가 되는 이유는 다음과 같습니다.
따라서 LLM은 글을 “대신 쓰게” 하기보다는, **구조 점검·문장 다듬기·표현 제안** 등 보조 용도로 제한하는 것이 좋습니다.
LLM은 코드를 새로 작성하거나 반복 작업을 자동화하는 데 매우 유용합니다. 특히 실험용 코드, 보조 스크립트, 초안 작성에는 도움이 될 수 있습니다. 다만 실제 운영 환경과 가까워질수록 위험도 함께 커집니다.
LLM을 통해 코드를 생성할 때에는 다음 원칙을 반드시 지킵니다.
구구컬리지가 외부에 배포하는 모든 콘텐츠에서 AI가 제작에 참여했다면 반드시 이를 명시해야 합니다.
표시 예시
이 규정은 모든 문서·이미지·영상·음성·코드에 동일하게 적용됩니다.
3. AI 영상 생성 시
업로드 금지 데이터 목록은 사용하지 않습니다.
대신 모든 데이터는 다음 원칙에 따라 전처리 합니다.
1. 최소 정보 업로드 – 업로드 목적에 불필요한 세부 정보는 모두 삭제.
2. 비식별 처리 (De-identification) – 이름·기관·위치·특정 사례 등 개인을 유추할 수 있는 요소 제거 또는 비식별처리
3. 데이터 학습 확인 및 기록 절차 및 지침
3-1. 데이터 학습 여부 확인
업로드 전 반드시 다음을 확인해야 합니다.
확인 항목
3-2. 기록 보존 의무
AI 사용 과정은 다음 양식으로 내부 기록을 남긴다.
`[AI 활용 기록] 작성자: OOO 날짜: 2025-XX-XX 사용 도구: ChatGPT Team / Claude for Teams 등 데이터 학습 여부 확인: 완료 (Training Disabled) 데이터 보관 정책 확인: 완료 (30일 자동 삭제) 업로드 자료 종류: 예) 기획서 구조 일부 발췌 전처리 여부: 민감 요소 제거 AI 참여 범위: 요약 / 편집 / 이미지 생성 등 콘텐츠 내 AI 참여 명시: 완료 검토자: OOO, OOO (2인 확인)`
다음 8개 항목이 모두 YES일 때만 AI 활용이 허용됩니다.
구구컬리지는 인공지능 기술의 가능성을 적극적으로 활용하되, 비영리조직으로서의 책임, 투명성, 안전성을 가장 중요한 가치로 삼아 이를 운영합니다. 이에 따라 다음과 같은 원칙을 분명히 합니다.
🟦 인공지능은 인간의 판단과 의사결정을 돕는 도구이며, 모든 결과에 대한 책임은 사람에게 있습니다.
🟦 콘텐츠 제작 과정에서 인공지능이 활용된 경우, 그 사실을 외부에 투명하게 공개합니다.
🟦 데이터 보호를 위해 전처리, 학습 여부 확인, 사용 기록 등 필요한 절차를 엄격히 준수합니다.
🟦 모든 콘텐츠는 학습자와 사회에 대한 책임을 바탕으로, 윤리적 기준을 충실히 따릅니다.
*해당 문서는 https://rfd.shared.oxide.computer/rfd/0576 문서를 참조하였고 편집과정에 인공지능을 사용했습니다.