대본과 웹툰 영역에서 AI가 도입됨에 따라 그에 대한 반발이 보이기 시작한다. 제작자 측에서 반대하기도 하고, 소비자 입장에서 반대하기도 한다. 국내 웹툰 ~ 웹소설 업계에서도 이른바 '양산형'이라 지적되는 특정 메타가 있을만큼, 문화적 다양성과 풍부함보다 수익성이 더 잘 나오는 특정 경향성이 시장을 지배해버리는 현상은 이미 존재한다. 이는 AI 작업물이 주류가 되는 시대와 유사하니, 지금 창작자들이 우려하는 문제는 재현 가능성이 분명 있다고 생각한다. 작업 다양성의 완전한 말살은 아니더라도, 시장의 주류로 AI가 창작하는 콘텐츠가 대중을 공략하는 가성비 콘텐츠가 자리매김하는 시대를 상상하기 쉽다.
더군다나, 지금 소비자들이 반대의 목소리를 낼 수 있는 이유는, 이를 구분할 수 있기 때문인데, 이는 지금 기술의 과도기에서 비롯된 일이라 생각한다. AI가 지금 지적되고 있는 손 디자인 문제 등을 극복해내고, 더이상 대중이 일반 일러스트와 AI 작업물을 구분해내지 못한다면, 기업 입장에서는 인건비를 감당하며 AI 활용보다 가성비가 낮은 형태의 제작을 감수할 이유가 사라지기 때문이다.
결과적으로 사람의 기본적인 욕망을 자극하고 충족시켜주는 특정 공식을 AI가 무한 반복, 양산해내면, 시장은 이를 중심으로만 보상해주는 체계 자체에 규제나 변혁이 있지 않는 한 충분히 일어날 수 있는 미래라 본다.
+ 그 외로 최근에 접한 디자인 및 3d 모델링 측면에서의 AI 도입 사례도 공유한다. (Figma의 Diagram 인수, DragGAN)
넷플릭스는 부당대우, AI는 일자리 침범… 글쓰기 직업 벼랑 끝
https://www.donga.com/news/Inter/article/all/20230519/119386141/1
여기에 챗GPT로 대표되는 생성형 AI가 일자리의 미래에 미칠 파괴적 영향을 현 시점 ‘노사 교섭안’에 제기한 첫 노동쟁의란 성격도 띠고 있다. 작가조합은 임금 협상 요구안에 “협약이 적용되는 모든 (창작) 프로젝트에 AI 사용은 규제돼야 한다”며 “AI는 문학(창작 대본)에 사용될 수 없고, 작가들의 작업물은 AI 학습 훈련에 쓰이면 안 된다”는 내용을 담았다. AI가 사람이 쓴 초안을 수정하는 제2의 저자 역할을 한다면? 혹은 AI가 쓴 초안을 사람 작가가 다듬는 시스템이 정착된다면? AI가 작가들의 작업물로 공부한다면 저작권은? 이 같은 질문에 지금부터 대답할 수 있어야 직업으로서의 글쓰기가 이어질 수 있다고 본 것이다. 할리우드 영화계에선 이미 작가들이 대형 프랜차이즈 영화 제작사에 종속되고 있다는 불만이 높다. 순수 창작 영화보다 마블 시리즈나 슈퍼 마리오처럼 유명 지식재산권(IP)을 활용한 대형 프랜차이즈 시스템이 주류로 자리 잡고 있다. 제작사의 기획안에 따라 초고를 쓰는 작가, 2단계 대본을 쓰는 작가 등 대본 작업도 단계별로 분업화되고 있는데, 미래에는 AI와 업무를 나눌 가능성이 높을 수밖에 없다고 작가들은 보고 있다.
https://www.ddanzi.com/ddanziNews/772210546
작가 노조가 주장하는 AI 규제와 이유 지난 기사에서 다시 인용해 보자. 작가 노조는 노조협약 효력이 있는 작업장에서 챗GPT에 대한 최소한의 규제를 요구했다. 내용은 다음과 같다.
1. 영화 제작사는 노조원 작가에게 AI가 쓴 원천자료에 근거해 글을 쓰도록 지시해선 안 된다.
2. 영화 제작사는 노조원 작가에게 AI가 쓴 글을 고쳐 쓰라고 시켜서는 안 된다.
3. 챗GPT 등 대화형 AI가 만들어 내는 것은 창작(creation)이 아니라 정보의 구토/역류(regurgitation)임을 명확히 한다.
4. AI는 작가 크레딧을 달 수 없다.
5. AI는 저작권을 주장할 수 없다.
...
이렇게 인건비 절감을 위해 사람을 자르면, 그 결과는 어떻게 될까? 작가들이 일자리를 잃는 것은 그렇다 치고, 모두가 보고 즐길 수 있는 창의적이고 상상력 넘치는 영화는 사라지고, AI가 기존 대본을 짜깁기해 싸구려로 찍어내는 비슷비슷한 영화들만 넘쳐나는 획일화된 상황이 될 것이다.
AI 활용 놓고 고민빠진 웹툰업계… 독자들은 별점 테러하고 저작권 문제 제기
https://biz.chosun.com/it-science/ict/2023/06/03/7QGYOC2RSNGQ5JGHKXT2FL6LGM/
웹툰업계가 작가들의 창작 활동에 인공지능(AI)을 활용하는 방안을 연구·개발해온 가운데 독자들의 반발이 거세 고민에 빠졌다. AI를 활용해 웹툰을 만들면 누군가의 저작권을 침해해 돈을 버는 것과 마찬가지 아니냐는 것이다. 이에 네이버웹툰, 카카오웹툰은 곧 진행할 웹툰 공모전에서 AI 활용을 금지하는 규정을 두기로 했다. AI 창작물에 대한 저작권 가이드라인이 필요하다는 지적도 나온다.
3일 네이버웹툰 신작인 ‘신과 함께 돌아온 기사왕님’은 독자들의 ‘별점 테러’로 평점이 2.82대에 머물러있다. 보통 인기 최하위권 웹툰들도 평점이 5~8점 사이인데 평점 2점대가 나온 것은 초유의 상황이다. 해당 작품은 AI를 활용해 그림을 그린 것이 아니냐는 논란이 일면서 평점이 추락했다.
AI: The next chapter in design
https://www.figma.com/blog/ai-the-next-chapter-in-design/
AI is more than a product, it’s a platform that will change how and what we design—and who gets involved.
Three years ago, Jordan tweeted a short video of a plugin he built on Figma that leveraged GPT-3 to generate design ideas with a simple prompt. He called it “Designer,” and it sent #DesignTwitter ablaze. Two years later, he founded Diagram, which has been recognized as one of the most promising startups building at the intersection of design and AI. Today, I’m excited to share that Figma has acquired Diagram. We’re thrilled to officially welcome Jordan, Siddarth, Andrew, Marco, and Vincent to the Figma team.
...
But I get it: It’s hard to look at what AI is capable of these days and not wonder, “If AI can do that, what does it all mean for me?” In moments like this, it can be helpful to look to the past. When we do, we see that design has always evolved with technology. Whether it was the printing press or the smartphone, innovation has never replaced the need for thoughtful design. Designers are no strangers to change. We’ve adapted to new platforms. We’ve become more collaborative. We’ve learned to work in hybrid work environments. And with each of these fundamental shifts, we adapt, we learn, and still—we design. This, of course, doesn’t mean things won’t be different: They will, and I believe for the better; starting with how we design.
...
One of the most important pieces of the puzzle is how product roles and collaboration might change in the age of AI. At Figma, we believe the personas and workflows of those who do product design and development will shift. More people will become visual creators, and existing designers will be able to create more ambitious experiences than ever before. One way to think about it is the total space of design having a ceiling and a floor: The ceiling is how good a designer can be at designing, which is constrained by the available tooling; the floor is the minimum skill required for someone to participate in design. AI will lift this ceiling, leading to more creative outputs made possible by more powerful tools; it will also lower the floor, making it easier for anyone to design and visually collaborate. The end result, in effect, will be a shared space–and bringing people into this shared design space means we’re truly working in the same place. It’s a trajectory that feels natural to Figma, where real-time collaboration has blurred the boundaries between roles and building products increasingly becomes a shared responsibility.
Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold
https://vcai.mpi-inf.mpg.de/projects/DragGAN/
Synthesizing visual content that meets users' needs often requires flexible and precise controllability of the pose, shape, expression, and layout of the generated objects. Existing approaches gain controllability of generative adversarial networks (GANs) via manually annotated training data or a prior 3D model, which often lack flexibility, precision, and generality. In this work, we study a powerful yet much less explored way of controlling GANs, that is, to "drag" any points of the image to precisely reach target points in a user-interactive manner, as shown in Fig.1. To achieve this, we propose DragGAN, which consists of two main components including: 1) a feature-based motion supervision that drives the handle point to move towards the target position, and 2) a new point tracking approach that leverages the discriminative GAN features to keep localizing the position of the handle points. Through DragGAN, anyone can deform an image with precise control over where pixels go, thus manipulating the pose, shape, expression, and layout of diverse categories such as animals, cars, humans, landscapes, etc. As these manipulations are performed on the learned generative image manifold of a GAN, they tend to produce realistic outputs even for challenging scenarios such as hallucinating occluded content and deforming shapes that consistently follow the object's rigidity. Both qualitative and quantitative comparisons demonstrate the advantage of DragGAN over prior approaches in the tasks of image manipulation and point tracking. We also showcase the manipulation of real images through GAN inversion.
'기술 공부 > AI' 카테고리의 다른 글
ChatGPT와 AI에 대한 잡설 (1) | 2023.02.17 |
---|---|
트랜스포머 개요와 종류 | Formal Algorithms for Transformers (0) | 2022.10.18 |
[NLP 기초 잡기] Word Embedding (GloVe, word2vec) with jiho-ml (0) | 2021.12.30 |
[NLP 기초 잡기] BoW, tf-idf with jiho-ml (0) | 2021.12.30 |