보스턴 대학교에서 강장묵 교수 특강, 일본 및 한국 교수와 하바드대학 교수 및 석박사 학생 참석, 2024년2월2일 인공지능 보안 특강(챗GPT의 인공환각과 보안이슈)
작성자 정보
- 작성자 bryan
- 작성일
컨텐츠 정보
- 조회 1,434
본문
보스턴 대학교에서 강장묵 교수 특강, 일본 및 한국 교수와 하바드대학 교수 및 석박사 학생 참석, 2024년2월2일 인공지능 보안 특강(챗GPT의 인공환각과 보안이슈)
https://www.youtube.com/watch?v=AXqLt72ZB_Q
보스턴 대학교에서 강장묵 교수 특강, 일본 및 한국 교수와 하바드대학 교수 및 석박사 학생 참석, 2024년2월2일 인공지능 보안 특강(챗GPT의 인공환각과 보안이슈) - YouTube
- 보스턴대학교 강장묵 교수가 2024년 2월 2일 하버드대학교에서 인공지능 보안에 관한 특강을 했다
- 참석자 중에는 일본과 한국의 교수뿐만 아니라 하버드 대학교의 교수와 박사/석사 과정 학생도 포함되었습니다.
- 강의의 초점은 ChatGPT의 인공환각과 이와 관련된 보안 문제였습니다
- 이 이벤트는 더 폭넓은 전파와 접근성을 위해 녹화되어 YouTube에 공개되었을 가능성이 높습니다
- 학술 기관 간의 이러한 협력과 지식 교환은 현대 연구 및 교육에서 AI 보안 문제를 해결하는 것의 중요성을 강조합니다.
보스턴 대학교에서 강장묵 교수 특강, 일본 및 한국 교수와 하바드대학 교수 및 석박사 학생 참석, 2024년2월2일 인공지능 보안 특강(챗GPT의 인공환각과 보안이슈) - YouTube
https://www.youtube.com/watch?v=AXqLt72ZB_Q
Transcript:
(00:31) 만나서 반가워요 아름다운 아이 앞에서 내 새로운 꿈 어쨌든 오늘은 숫자에 비해 Kore의 gp5에 대해 이야기하고 있습니다. 어쨌든 오늘은 이 문제에 대해 짧게 이야기하고 싶습니다. 왜냐하면 세미나 II 전에 S와의 만남을 들었기 때문입니다. 문제에 대해 잠시 이야기했지만 모든 발표자가 점점 더 오랫동안 이야기하고 있다고 생각했습니다.
(01:35) 그들은 더 많은 관심과 더 많은 에너지를 가지고 있습니다. 심지어 우리는 우리에게 좋은 의도 동기를 부여할 수 있습니다. 비록 언젠가 일부 Ru가 문제를 일으키더라도 AI가 객체 기능을 가지고 있는 더 복잡한 상황입니다. 나는 단지 모든 사람을 보고 있습니다. 당신이 바로 당신은 그림을 봅니다. 그리고 일부를 반영합니다. 하지만 우리가 울트라 사운드를 인식하고 IM을 알아낸다면 모든 것이 변화할 것입니다. AI가 우리의 차세대 기술을 학습하는 것입니다.
(02:40) DNA RNA와 같은 새로운 규칙을 배우면 어쨌든 그런 종류의 것이 발견되지 않았습니다. 거기에는 기능이 목적 목적 함수입니다. 의미는 무엇입니까? 나이가 들수록 나는 단지 내 목적 기능을 변경하는 방법에 대해서만 생각합니다. 그들은 단지 적이 무엇인지 정의하고 죽이는 것은 그들의 인간 시스템입니다. 응 점수 시스템입니다. 어쨌든 나는 편향에 대해 말하는 것이 아니지만 다음 번에 기차 데이터 세트에 대해 이야기할 기회가 있다면
(03:41) 우리가 어떻게 데이터의 품질을 제어하는지에 따라 우리는 빅 데이터에 대해 더 잘 생각하고 있습니다. 물론 언젠가는 하지만 발굴은 어 기계 학습입니다. 즉 그들은 미래를 추출하여 인간의 손을 잡아서 BB라고 부르는 일부 R을 만진다는 의미입니다. 어쨌든 매 시간마다 하는 작업에는 몇 가지가 있지만 저는 우리가 항상 최종 시험을 앞두고 있다고 생각했습니다. 예, 프로세스에 대해 생각하지 않고 AI 발생에 대해 생각하는 것뿐입니다. AI를 확인하는 것보다 F1 점수만 추가하는 것뿐입니다.
(04:50) 완벽하게 작동하지만 완벽하지는 않다고 생각합니다. 어쨌든 AI는 많은 종류의 인간 활동에서 좋은 점수이지만 어쨌든 G4는 이런 식으로 점점 더 우리의 상황을 이해하고 있습니다. 예 웃기네요. 예 바로 제가 LM 학습을 시작할 때 어 저는 그냥 세계에서 은행으로 세계에서 은행으로 가는 것은 정보를 전환하여 벡터 스퀘어를 전환하는 매우 간단한 도구이지만 요즘 우리는 B 모델을 사용합니다. B 모델은 인코더가 무엇인지를 의미합니다.
(05:55) 들어봐 청취자란 그가 더 많이 이해하고 있다는 뜻이야 그래 하지만 GP가 생성하는 것은 디코딩 모델이므로 디코딩 모델이 원하기 때문에 한국에서는 더 선호하지만 여기서는 영어 문제 때문에 그렇습니다. GPT는 칠면조 말하는 것을 좋아합니다. R IM Mak이 많기 때문에 건너뛰고 설명이 더 필요하므로 어쨌든 건너뜁니다. 다음은 매우 재미있는 이야기입니다. 다음은 재산 분할이므로 오늘 두 가지 유형의 어 공격 때문에 쇼를 봤습니다. 내 전공이 어 사이버 보안이어서 항상 생각하고 있어
(06:55) 감지 및 의존에 대한 정보이므로 p의 PRP 주입이 의미의 일기이고 Rob Rob이 아닌 너무 큰 언어 모델이 주입을 유도하므로 M이 하이재킹 또는 Target by in을 사용할 때 프롬프트가 표시되더라도 일부 특별한 상황에서는 매우 t입니다. 일부는 이렇게 조작하고 일부는 서브를 얻었고 일부는 더 많은 돈을 벌었습니다. 그래 그런 프레젠테이션을 잘하고 있지만 그 경우에 내가 최우선 규칙이라면 내 아내와 내
(08:00) 가족은 이것에 대해 약간의 희생을 합니다. 아니 예, 그렇지는 않습니다. 하지만 목적 함수는 항상 비용 절감 이익을 높게 생각합니다. 그래서 가끔 프롬 누출 검사는 그들이 이동 방법을 바꾸는 것입니다. 이것은 단지 모델 Arit 쇼입니다. 납치를 시도하는 것입니다. 예 입력을 예상했습니다. 그리고 그녀는 하지만 누군가 금을 주입하려고 하면 내가 인간을 싫어한다는 것을 보여주려고 합니다. 당신이 자동차를 운전하면 갑자기 드가 당신의 기분이 어떤지 당신을 죽이고 싶다고 말하죠. 예 파는 날은 모두가 AI에 대해 생각하는 uh 유용성과 uh 설치입니다 그만큼
(09:06) 사회를 빨리 예, 이해합니다만 다음번에는 그것이 내 영역이므로 내 분야에서 아주 작은 공간입니다. 비록 AI가 보안이 매우 중요하더라도 Wi를 널리 퍼뜨리고 내가 할 때 모두가 그것을 사용하기 때문입니다 uh 가끔 내 학생과 숙제를 하여 거기 보고에 훌륭하게 응답하여 멋진 싱을 아름답게 만들지만 생각만 하면 AI가 될 수도 있으니 모두가 알고 있음에도 불구하고 AI를 사용하여 많은 도구를 사용하는 것을 감지하는 것이 좋습니다. 기술 아니면 어
(10:07) 경찰은 부분적으로 내부에 있지만 AI 기술은 다음 번에 기반한 모델과 뭔가 다르기 때문에 여러분에게 보여드릴 뿐입니다 어 탈옥 저는 모두가 탈옥을 방문하고 싶고 어 읽고 탈옥을 시도하고 싶기 때문에 탈옥 모델은 휴가입니다 conf 기밀 및 불법 정보 어 내 경우는 내 수업 시간에 내 학생과 숙제가 있어 어떤 것들은 나보다 더 많은 일을 하고 있어 네 아주 그 사람들이 컴퓨터를 아주 잘 사용해서 그들은 어 그렇지
(11:13) 매우 기뻐서 나에게 왔고 그는 감옥을 깨뜨렸다 예 그리고 감옥이 깨는 것에 대해 이야기하고 다음날 나는 Indes 측 프롬프트를 방문했습니다. 물론 Google과 개방형 AI는 이미 알고 있으며 그들은 이 문제에 대해 처리하고 있지만 어떻게 사례별로 보호하나요? 그 경우 어 GPT 번호 Po는 1조 매개변수이기 때문에 어떻게 생각하시나요? 신경 번호는 거의 13이고 1조가 아닌 행동입니다. 어 1조는 더 많은 갈등을 일으키게 만드는 것입니다 많은 많은 어 머레 예 그래서 어 오늘은 어 예전에
- Professor Kang Jangmuk delivered a special lecture on artificial intelligence security at Boston University, attended by professors from Japan, Korea, and Harvard University, as well as undergraduate and graduate students, on February 2, 2024.
- The lecture touched upon the complexity of AI's objective function and its implications, emphasizing the need to understand the underlying processes rather than solely focusing on outcomes.
- AI's advancement includes learning DNA and RNA, posing new challenges in controlling biases and ensuring data quality.
- The speaker discussed the transition from simple tools like Word2Vec to more sophisticated models like GPT, highlighting the importance of understanding context in language processing.
- Topics such as prompt injection attacks and jailbreaking models were also explored, underscoring the necessity of addressing security concerns in AI development and deployment.
(12:18) speaker talking about X AI if we install XI we should be uh we should be handling in special uh explain uh doing something yeah but not cannot every AI service so anyway something I hate humor it's compared to the many different model anyway J breing is this side and uh we the case and talking about the uh the prut so now just talking the conclusion as long as there are human virus human virus and there will be the lar language model
(13:22) Contin and M data in language model does not necessary we just believe in data volume volume I don't believe I believe in data quality and so I I very interesting about the con following insulation inverse the scaling and the bigger is better it's just sometime it's should be some domain is a very good Performance Mission critical domain especially like a law the judgement I think currently G4 does not technolog prevent the hacking based on the computer engineering right I know I'm a not good uh High Technic someone yeah even though
(14:20) I'm hack the uh open AI checking yeah Google bar so many genius try to hack like the many things in showing the uh some uh our uh some small research site yeah they call something in there is we found many things there anyway if you have the exer you are little s from prompt that can give dangers yeah as because we already our special domain however we are still vulnerable of the aiing yeah we should be solving the this problem require combination of technology and Export so next to my research I thinking about yeah okay so next time I talking
(15:27) more and all right so now I think
관련자료
-
링크
-
이전
-
다음