분류 전체보기 45

테스트 구축하기

마틴 파울러의 리팩터링(2판)에서는 코드 구조를 개선하는 리팩터링 기법을 다루지만, 리팩터링을 제대로 수행하려면 반드시 테스트가 필요하다. 이번 글에서는 책에서 다룬 ‘테스트 구축하기’ 챕터를 중심으로 테스트 코드 작성의 핵심 개념을 정리해보았다. 리팩터링과 테스트의 관계리팩터링의 궁극적인 목표는 코드를 더 개선하는 것이지만, 코드의 동작을 보장할 수 없다면 리팩터링 자체가 위험해진다. 이때 필요한 것이 바로 테스트 코드다. 리팩터링을 하기 전에 테스트를 구축하면 코드 변경으로 인한 의도치 않은 동작을 사전에 방지할 수 있다.테스트 코드가 없다면 리팩터링 과정에서 기존 기능이 망가졌는지 확인하기 어렵다. 따라서 리팩터링을 수행하기 전, 반드시 신뢰할 수 있는 테스트를 작성해야 한다. 실패하는 테스트를 직..

코드에서 나는 악취

마틴 파울러는 "언제 리팩터링을 해야하는가"에 대한 대답으로 코드에서 "냄새"가 나는 시점이라고 말하다. ( 정확히는 켄트벡의 표현을 빌린 것이다 ) 이들은 많은 코드를 봐왔고, 대체로 리팩토링이 필요한 코드들은 일정한 패턴을 가지고 있다고 한다.  본 장에서는 그 악취나는 패턴들에 대한 소개와 간단한 해결방법을 언급한다. 자세한 해결방법은 뒷장에 자세히 서술되어 있기에, 어떤 패턴이 악취인지에 조금 더 중점을 두고 내용을 정리해보았다. 1. 기이한 이름함수, 모듈, 변수, 클래스 등은 이름만 보고도 각각이 무슨 일을 하고 어떻게 사용해야 하는지 명확히 알 수 있게 이름을 지어야 한다.마땅한 이름이 떠오르지 않는다면 설계에 더 근본적인 문제가 숨어 있을 가능성이 높다. 2. 중복코드코드가 중복되면, 중복..

리팩터링: 첫 번째 예시

리팩터링 (2판) 1장에서는 앞으로 배울 리팩터링 기법을 한 데 모은 예시에 대해 소개한다. 다양한 공연을 외주 받아서 운영하는 극단의 충성도 프로그램이 소개된다. 이 프로그램에서는 연극의 장르와 관객의 규모에 따라 비용을 책정하는 비즈니스 로직이 존재하며, 이를 리팩터링하는 것이 이 장의 핵심 내용이다.  코드의 변화 과정을 훑으면서, 여기서 어떤 기법을 통해 바꾸었는지를 확인해보면 된다. 읽으면서 기억에 남는 부분들을 몇 가지 기록해보고자 한다. 나는 수백 줄 짜리 코드를 수정할 때면 먼저 프로그램의 작동 방식을 더 쉽게 파악할 수있도록 코드를 여러 함수와 프로그램 요소로 재구성한다.프로그램의 구조가 빈약하다면 대체로 구조부터 바로잡은 뒤에 기능을 수정하는 편이 작업하기 훨씬 수월하다. 프로그램이 새..

인간은 누구나 실수를 한다.

어느 순간부터 유튜브에서 "죄송합니다"라는 제목의 영상이 일상처럼 등장하기 시작했다.모든 사건과 논란의 진상을 속속들이 알고 있는 것은 아니지만, 몇 가지 사례를 조사해본 결과 어떤 이는 분명 중대한 잘못을 저지른 듯 보이는 반면, 어떤 경우에는 과연 이렇게까지 질타받아야 할 일인가 의문이 들 때도 있다.이를테면 빽햄 사건으로 거센 비판을 받고 있는 백종원, 자폐 자녀를 둔 부모로서 교사의 발언을 녹음했던 주호민 등이 그러하다.나는 그들의 해명 영상을 처음부터 끝까지 시청했다. 개인적인 호불호를 떠나, 논리적으로 납득할 만한 해명이었다. 물론, 그들의 입장이 완벽할 수는 없으며, 논란의 일부는 분명 그들의 실책에서 비롯된 것도 사실이다. 하지만 그렇다고 해서 이토록 가혹한 비난을 받아야 하는가?그들의 S..

Etc/Thought 2025.02.24

리팩터링 2판 공부를 시작하며

실무를 하다보면, 좋은 설계의 중요성을 알면서도 지키지 못할 때가 생긴다. 정말 촉박하게 개발을 해야하는 상황이거나, 긴급히 수정이 필요한 경우라면 더욱 그렇다. 비단, 이 경우들이 아니더라도 앞으로 새롭게 추가될 기능의 방향성을 미리 예측하고 이를 모두 고려한 설계를 하는 것이란 쉽지 않다. 때로는 그런 설계가 오버 엔지니어링 취급을 받기도 한다. 설령 내가 좋은 설계를 할 수 있는 개발자더라도, 좋은 설계가 된 코드만을 마주하리라는 법도 없다. 중요한 것은 주어진 코드를 "현재 상황"에 맞게 코드를 재설계하고 구조화할 수 있는 능력이 아닐까 싶다. 그런 의미에서 "리팩터링"은 나에게 좋은 방향성을 제시하는 교안이 되지 않을까 싶다.  앞으로의 학습 방향성에 대해 생각해보면.. 그간 여러 개발 서적을 ..

사회는 내가 배웠던 물리와 많이 닮아 있다

나는 물리학과를 졸업했다. 물리학은 수학이라는 도구로, 세상의 이치를 해석하는 학문이다.  물론 모든 문제를 완벽히 풀 수는 없다.대표적으로, "삼체문제"라는 것이 있다. 물체 세 개간에 중력에 의한 상호 작용을 완벽히 예측할 수 없다는 문제이다. 물체 두 개를 다루는 "이체문제"의 경우, 수학적인 해를 구할 수 있는데도, 물체 하나가 더 늘어나면 그것이 어려운 것이다.사회 활동도 이와 많이 닮아있다. N 명의 사람이, 수학적으로 정의할 수 없는 의사 소통을 하며 가변적인 경제 상황 속에서 수행하는 활동인 셈이다. 나는 약 4년간 회사를 다니며 다양한 사람들을 만나고, 여러 조직과 리더를 경험해왔다. 그 과정에서 가끔은 "좋은 리더란 어떤 사람일까?" 라는 질문이 떠오르곤 한다.좋은 리더의 기준을 정의하..

Etc/Thought 2025.02.08

LCEL 에 관하여

1. LCEL (LangChain Expression Language) 란? 랭체인 서버를 만들다보면, 다양한 예제에서 아래와 같이 | 연산자를 활용하는 모습을 볼 수 있다. 이는 LCEL이라는 코드 작성 방식이다. return prompt | llm | output_parser LCEL (LangChain Expression Language)은 랭체인에서 코드를 작성하는 새로운 방법이다. LCEL은 프롬프트와 LLM을 | 연산자로 연결하여 작성하여 체인을 구현한다.  2. LCEL의 기본 사용법 가장 간단한 형태로, prompt와 model을 연결해보자.  from dotenv import load_dotenvfrom langchain_openai import ChatOpenAIfrom langchai..

랭체인 에이전트

AI 에이전트는 LLM의 응용 분야로 각광받고 있는 분야 중 하나이다. 기존의 Chain이 고정된 흐름을 처리한다면, 어떤 처리를 할 것인지 LLM이 선택해서 움직여주기를 원하는 경우가 있을 수 있다. 가령, 사용자의 질의에 대해 필요에 따라 사내 문서를 Vector Store 에서 검색하여 답변하거나 웹 상의 정보를 바탕으로 답변해준다는 등으로 작동하면 LLM의 활용 범위는 크게 늘어날 수 있다. 이를 가능케 하는 것이 랭체인의 Agent 다.  에이전트 사용 예시 랭체인에는 다양한 종류의 Agents가 구현되어있다. 그 중, ReAct 라는 Agent를 사용하는 예시를 살펴보자. from langchain import hubfrom langchain.agents import AgentExecutor,..

랭체인 활용 - Data Connection

Data connection은 LLM과 외부의 데이터를 연결하기 위한 기능이다.  RAG (Retrieval Argumented Generation) GPT가 미처 학습하지 못한 정보( 가령, 최근에 발생한 이벤트나 사내 정보 등 )를 사용하게 싶은 경우가 있다. 이 경우, 프롬프트에 컨텍스트(context)를 넣은 방법을 떠올릴 수 있다.  # 프롬프트문맥을 고려하여 한 문장으로 질문에 답해 주세요. 문맥: """"""질문: A회사에서 야근하면, 받을 수 있는 수당은 얼마인가요? 물론 LLM은 토큰 수 제한이 있기에, 모든 데이터를 컨텍스트로 담을 수는 없다. 그래서 "관련이 있는 데이터"만 컨텍스트로 담는 과정이 필요하고, 이를 위한 기법이 바로 RAG (Retrieval Argumented Gene..

랭체인 기초

- 랭체인은 LLM을 이용한 애플리케이션 개발 프레임워크이다. - 랭체인의 모듈은 크게 6가지로 나뉜다.   - Model I/O   - Data Connection  - Chains  - Agents  - Memory  - Callbacks 각 모듈의 역할은 아래와 같다. Language Models- Language models는 랭체인에서 언어 모델을 사용하는 방법을 제공하는 모듈이다. - 다양한 언어 모델을 공통된 인터페이스로 사용할 수 있다.- Language models를 크게 'LLMs'와 'Chat models'로 분류할 수 있다. LLMs- 하나의 텍스트 입력에 대해 하나의 텍스트 출력을 반환하는 전형적인 대규모 언어 모델을 다루는 모듈이다.  from langchain_openai im..