이제부터 진짜 AI
1.47K subscribers
816 photos
105 videos
2 files
247 links
Web3 AI 이유식 처럼 떠먹여주는 방
제가 AI는 전달해 드릴테니, 공부 그만하세요(제발)
+ 요새 오픈소스 AI 영상 모델도 공부중입니다. 이쁜거는 공유합니다.
질문이나 프로젝트 공유는 DM으로 부탁드립니다.(코인은 보여주지 마시고, 프로젝트나 백서 혹은 깃허브만 보내주시면 됩니다)
@swagger997
Download Telegram
'우리는 AI 학습의 새로운 페이지로 넘어왔다'

링크

현재 AI(특히 llm)은 이제 꽤나 탄탄한 강화학습 방법론을 구축하였고, 실제로 이를 활용해 많은 효과를 보고있다. 이것이 Phase 1~2이며, GPT-3 부터 시작해 GPT-5 까지 발전해왔다. 많은 사람들이 알지 못하지만, 이미 학계와 연구에서는 AI의 강화학습에 대한 최적화 레시피를 구축하였고, 이를 활용해 상업적인 AI 모델을 구축하고 있다. 그렇기에 우리는 이미 페이지2 까지는 와있다.

그럼, 이 다음 페이지는 무엇일까? 우리가 눈치채지 못했지만, 이미 AI 업계는 그곳으러 향하고 있다.

이 다음 페이지는 Phase 3으로, AI가 스스로 작동하며 학습하는, 현실의 인간과도 같은 강화학습 방향이다.

우리가 현실에서 일을 할때, '종이에 글을 쓴다' 라는 하나의 단편적인 action으로 작업을 수행하지 않는다. 우리는 유기적으로, 복잡한 순서와 여러개의 병렬 action들을 종합하여 일을 한다.
-> 글을 읽는다-> 생각하고 필요한 부분을 기억한다 -> 종이에 글을 쓴다 -> 생각한다 -> 읽는다 ....
마치 사람이 생각하는 것 처럼, 스스로 생각하고 스스로 학습하는 '현실기반 자동 실시간 강화학습' 이 현재 우리가 향해가고 있는 페이지이다.

물론, 지금까지 인간이 지도해주던 방향과는 다르다. 그러기에 아직, AI라는 마라톤을 놓고 보았을때, 우리는 절반 정도밖에 지나지 않았다.
(실제 서비스)

한국에는 AI를 활용해 ‘완벽한’ 파트너를 매칭해 주는 비밀 서비스가 있다
이 AI는 다음과 같은 정보를 받아들인다

나이/성별/인종/키/몸무게

종교/취미/가족 정보

소득/예상 소득/직업/파트너의 예상 직급

얼굴 정면 셀카/얼굴 오른쪽/얼굴 왼쪽/손 사진

간단한 심리 성향 검사


이 모든 정보를 종합해 AI는 가장 ‘호감 가는’ 파트너를 제시한다

내 친구 한 명이 시험 삼아 이 서비스를 이용했다
그는 일본인 여성을 만났고, 4개월간 연애한 뒤 결혼했다
지금은 두 아이의 부모가 되었다
그는 이렇게 말했다
“아담과 이브처럼 완벽한 이상적인 파트너를 만난 것 같아. 그녀는 완벽해. 그 이후로는 그녀 없는 삶은 상상할 수 없어”

디스토피아적 미래에 온 것을 환영합니다.

ps.
내년에 실제로 국내 한 회사에서 서비스할겁니다.
ElizaOS, Xai 고소 관련 나의 생각(feat. 변호사한테 상담은 받아봤어?)

- 3D 아바타를 도용했다는데, Ani랑 Eliza는 너무 다른 캐릭터임. Ani는 금발 갸루, 엘리자는 너드녀. 너무 다름

- 유저가 상호작용 가능한 ai agent 플랫폼 : 진짜 진짜 더 들어가면 TAY도 있고, 한국에서는 심심이도 있음. 버츄얼도 있고.. 억지 주장임

- 실시간 음성 및 비디오 지원 ai : 뉴로사마가 훨씬 빨랐고, 키즈나 아이도 있음. 엘리자 만의 특별한게 아님

- 통신 연결 : 그냥 Twillo 연결한것 뿐



결론:
기술적인 특허의 중요한 구성요소인 신규성과 차별성이 없음. 사실상 억지 소송인듯
openai 개발자

'클로드 코드가 openai꺼보다 좋더라'
(nano banana - 방울을 부는 웃는 여캐를 만들어줘)

최근 AI 버블 관련 논문 동향

- AI 논문 쪽에서도 AI 버블 여론을 반영한 것인지, '팩트 체크' / '평가' / '검증' 논문이 다수 나오고 있음

- LLM의 구조적인 한계점을 지적하는 것이 2025년 6월까지의 논문이었다면, 현재는 '그럼 이 상황에서 어떻게 개선을 해볼까?' 와 같은 방향으로 논문이 나오고 있음

- 완벽하게 새로운 구조인 Diffusion 모델은 조금 시들한 상태(일단 너무 이질적이라 정착하려면 시간이 걸릴듯)

- 검증/평가/체크를 중점적으로 두고 있음

결국 기술이 성숙해지는 과정일지도?
Everlyn AI의 리더, Sernam Lim을 주의하세요
+
Everlyn AI의 기술성이 의심스럽다

(최대한 많은 분들의 의견을 듣고 싶습니다. 걱정되는 포인트가 너무 많습니다)

1. Sernam Lim이라는 인물에 대해

최근 주목받고 있는 프로젝트 Everlyn AI의 리더인 Sernam Lim 교수에 대한 온도체크를 해보았습니다.

먼저 긍정적인 부분부터 언급하겠습니다.
겉으로 보기에는 경력이 매우 화려합니다. 메타 근무 경력에 더해, 인용 횟수가 2,200회 이상인 논문에 이름이 올라가 있으며, 최근 발표한 논문들 역시 모두 컴퓨터 비전(특히 이미지 생성)과 관련되어 있습니다. 따라서 경력 자체만 놓고 보면 부족하다고 평가할 수는 없습니다.

그러나 개인적·지도 방식에 심각한 문제점이 지적되고 있습니다. 요약하자면:

- 전형적인 연구생 착취형 교수, 혹은 성과 중심의 공장형 교수
- 학생 지도보다는 연구 성과논문 제출에만 집착
- 기여도가 전혀 없는 인원의 이름을 논문에 올리는 등 위법성이 의심되는 행위를 했다는 정황

이와 같은 내용은 레딧에 올라온 폭로 글에서 확인할 수 있으며, 학생들이 교수를 평가하는 사이트에서도 낮은 점수를 받은 기록이 있습니다.

Sernam Lim에게 배우지 마시오 - reddit

Sernam Lim 교수 평가(5점만점에 2.3점. 5점 2개에 나머지 전부 1점)

또한 그는 원래 Web3와 전혀 관련이 없던 사람이었지만, 작년부터 이쪽 분야로 활동을 넓히고 있습니다.

2. EverlynAI의 기술성이 좀 의심가는 여러 정황들
Everlyn AI가 제시하는 기술에 대해 몇 가지 의심스러운 정황이 있습니다.

- (1) 생성 속도가 비정상적으로 빠르다
구글조차 생성에 약 5초가 걸리는데, Everlyn 역시 정확히 5초가 걸립니다. 신생 프로젝트가 어떻게 이런 수준의 속도를 구현할 수 있는지는 의문입니다.

- (2) 생성 이미지가 기존 Image Gen과 지나치게 유사하다
첨부된 이미지를 비교해 보면 Everlyn이 만든 결과물과 Google의 결과물이 거의 흡사합니다.

- (3) 기술적으로 독창성이 부족하다 + 허깅페이스에 모델이 없다(오픈소스??)
Autoregressive 비디오 생성은 이미 특별할 것이 없으며, 문맥을 이해하는 비디오 생성 역시 기존 연구에서 충분히 다뤄졌습니다. Everlyn AI는 사실상 선행 연구를 조합하고 포장한 수준으로 보입니다.

- (4) 깃허브 활동이 수상하다
깃허브는 약 11개월 전 이후 업데이트가 없으며, 기여자도 2명에 불과합니다. Fork한 계정의 대부분은 유령 계정이거나 해당 교수의 대학 출신 학생들입니다. 오픈소스 모델은 올라와 있지 않고, 코드 구조만 있을 뿐 모델의 실체는 존재하지 않습니다.

깃허브링크 (컨트리뷰터 2명, 활동기록, 이슈 없음, fork/star 계정 대부분 유령 계정)

👉 전체적으로 볼 때 Everlyn AI는 외형적 화려함에 비해 실체가 부족하고, 리더인 Sernam Lim 교수의 신뢰성에도 큰 의문이 제기되는 프로젝트라 할 수 있습니다.

저는 좀 많이 걱정됩니다.
논문을 이렇게 많이, 좋은 논문을 썼던(본인이 직접쓴지는 모르겠지만) 사람이 이정도의 hype를 받고있는데, 제 의심이 틀리길 바랍니다.

수정1.
교수의 인성보다는, 작성한 논문들이 '실제 저사람이 작성한게 맞아?' 라는 의심이 드는것이 매우 큽니다.(진짜 기술력은 있는걸까?)
7👎1🤔1
이제부터 진짜 AI
Everlyn AI의 리더, Sernam Lim을 주의하세요 + Everlyn AI의 기술성이 의심스럽다 (최대한 많은 분들의 의견을 듣고 싶습니다. 걱정되는 포인트가 너무 많습니다) 1. Sernam Lim이라는 인물에 대해 최근 주목받고 있는 프로젝트 Everlyn AI의 리더인 Sernam Lim 교수에 대한 온도체크를 해보았습니다. 먼저 긍정적인 부분부터 언급하겠습니다. 겉으로 보기에는 경력이 매우 화려합니다. 메타 근무 경력에 더해, 인용…
Everlyn의 자체 모델 weight가 공개되면 의견 수정과 함께 다시 분석을 해보겠습니다.

다만 현제 2025.09.01 기준으로는 공개된것이 없기에,
왠지 영상 생성과 이미지 생성 모두
wan 2.2 기반 모델을 쓰지 않았나 추측해봅니다.

이러면 속도와 퀄리티가 좋다는것이 어느정도 이해가 되기도 합니다.

독자적인 모델이라면, 정말 대단할것 같아요 기대됩니다.
This media is not supported in your browser
VIEW IN TELEGRAM
오랜만에 영상(i2v) 생성 모델 테스트
wan 2.2
'화면으로 아름다운 여성이 클로즈업되며 다가오는 영상'

- Vtuber lora
- Livewallpaper lora
- 4step
- Fast lora

대박이다..이건..
claude ai 공식 홈페이지를 유료로 구독해서 쓰신다면,
settings -> privacy에 가서 '내 정보 학습 허용' 을 X 표시로 바꾸시길 권장드립니다.
9/28부터 claude ai pro/max 계정과 claude code 코딩 정보가 학습 가능해집니다. 거부시, 학습이 되지 않습니다.

학습을 허용한 계정운 데이터를 5년간 보존한다고 하니, 반드시 학습 허용 거부를 하시길 권장드립니다.
3
인공지능 청진기로 심장질환를 15초만에 탐지

링크

심부전, 심장판막 이상, 심방 세동 이상을 3배 높은 정확도로 탐지함

아마 센서(소리)를 ai와 결합한것 같은데, 이런 부분에서는 ai가 굉장히 객관적인 진단이 가능해서 좋을것 같다 생각함

다만, 서울대 심장 의학과 교수님 썰인데

환자 : 저 어디가 아픈지 모르겠는데 심장 소리가 좀 이상해요
의사 : (청진기 대고 심장 소리 듣기) 이거 좌심실이 좀 이상해보이는데? 초음파해봐
레지 : 어 진짜네요 어떻게 아셨어요?
의사 : 그러게?

이정도 수준은 아직..
제 할아버지도 이분이 협심증 바로 보자마자 진단함..
저는 Kimi의 연구진들을 굉장히 좋아합니다.
발언 하나하나가 '아 얘내들 제대로 하는구나' 라는 생각이 들거든요.

리드 엔지니어는 인터뷰에서 이런말을 했습니다:
- "ai는 사실상 통속의 뇌일 뿐이에요. 그거만 가지고는 아무것도 못해요"
- "에이전트가 어떻게보면 뇌의 팔과 다리가 되는 것에 해당됩니다."
- "ai는 뇌, 에이전트는 팔다리로 작동해서 실제로 무언가를 하는거죠"

'AI' 하나만 가지고는 아무것도 못한다는 내용과, 에이전트를 마치 인간의 팔다리로 설정해 실제적인 AI를 이끄는것이 Agent 라는 설명이 정말 마음에 듭니다(그래서 공유합니다)
😁1
-> AI 덕분에 AI 및 소프트웨어 엔지니어링 직업의 숫자가 대폭 늘어났습니다.
-> 근데 왜 일자리 구하기가 힘들죠??
-> 신입 채용을 0으로 만들고 100퍼센트 전부 경력직만 뽑게 되었습니다
->...
중국 논문은 요새 저자들을 100명가까이 넣어서 논문 저자 더보기 클럽하는게 유행하나보다..

논문은 좋은 서베이 논문이라 내일 리뷰 예정
아니 이제 일본 러브 코미디 만화에서도 그록 AI로 연애 상담하는게 나오네 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 😂
😁2
👤: 우리는 누구인가?
👥: CEO들이다!

👤: 우리가 원하는 건?
👥: 인공지능!

👤: 인공지능으로 뭘 하게?
👥: 몰라!

👤: 그럼 언제 필요해?
👥: 당장 지금!
Nous Research에 대해(feat. 라마 사랑단)

(광고 아님)

굉장히 좋아하는 오픈소스+web3+ai 플젝팀입니다.

일단 여기는 실제로 오픈소스 LLM 모델을 올리고, 학습하고, 포팅하고, 데이터도 오픈하고, 방법론도 공개하고 등등..
뭔가를 진짜합니다.

특히 처음에 사람들에게 알려진 Hermes 405B는 가히 라마기반 파인튜닝 모델중에서 최고였습니다. 적은 검열/라마의 성능/덕후 문체/과학 지식 up 기존 라마에 비해 상위호환이라고 말해도 될 정도였습니다.

최근에 Hermes4를 출시했습니다. llama 3.1 기반으로 학습되었는데, 말도많고 탈도 많은 llama 4를 하지 않은 것은 좋은 결정이라 생각합니다.

다만 하나 아쉬운점은, '왜 계속 라마 기반만 고집하지?' 입니다.
솔직히, 현재 LLM 오픈소스 모델의 1황은 누가 말해도 중국쪽 모델들입니다.
- Kimi, Qwen, DeepSeek 등등..
Nous는 중국 기반, Qwen 기반 모델은 특히 주력으로 삼지 않는 경향을 자주 보여줍니다. 물론 이번에 Hermes4 12B, Qwen 3 12B로 포팅하긴 했는데, 원본 Qwen 3 보다 성능이 떨어지는것이 체감되었습니다. (특히 다국어 이해 부분) Nous가 라마 기반의 파이프라인만 체계적으로 구축되어있고, 나머지 Qwen/Kimi/Deepseek 중국 모델들이 대해서는 약하다는 추측이 있는데, 반쯤은 사실이 아닐까 우려스럽습니다. 메타(Meta)가 라마를 반쯤 손을 놓은 상황이라 그럼 모델에 혁신적인 발전을 기대할수가 없게되거든요.
1
- 오류는 로그함수 형태로 수렴하게 줄어들지만, 연산 비용은 지수함수 형태로 증가함
- 연산량/학습량이 올라가면 AI 오류가 줄어들지만, 비용은 수백배로 올라감
- 이정도의 금액과 시간을 튜닝으로 커버한다는 것도, LLM이 뒤지게 크기가 커서 안됨
- 그러니 GPT를 집에서 내 맞춤형으로 돌린다는 말은 다 거르는게 좋다

맞는 썸네일, 틀린 개념 별로 없음, 다른 바이럴 AI 유튜브 영상들을 저격함

오랜만에 썸네일은 맞는말을 하는 한국산 AI 영상이었습니다..
GPT 사지말고 집에서 쓰세요 인줄 알았는데...
3