Big Data to win in sports betting: learn the basis in less than 10 minutes

안녕 내 이름은 "Big Data Betting"과 "Winning Betting Strategies"의 저자 인 Tom Whitaker입니다

Big Data를 통해 스포츠 베팅에 돈을 버는 방법을 설명한 2 권의 책 Betamineiccom이 만든 놀라운 무료 도구로 큰 데이터를 사용하여 자신의 도박 시스템을 조사하고 발견 할 수 있습니다 Betaminic은 2012 년 이래로 54 개 리그에서 10 만개 이상의 거대한 데이터베이스와 마권 확률을 가지고 있습니다 7 년이 넘는 데이터입니다

이 데이터베이스를 무료로 사용해 도박을 찾을 수 있습니다 전략은 과거에도 효과가있었습니다 북 메이커 확률은 자신의 모델을 기반으로하며 수익을 창출하기 위해 책을 균형있게 조정하고 시장 이동에 영향을받습니다 그것들은 각 게임의 진정한 확률에 대한 완벽한 반영이 아닙니다 때로는 확률이 잘못되어 Betaminic의 무료 데이터 분석 도구가 도움이됩니다

확률이 일관되게 틀리면 값을 찾을 수있는 패턴을 찾습니다 시스템이 작동하고 과거에 돈을 벌었다는 것을 안다면, 우리는 우리 자신의 시스템을 만들기위한 좋은 출발점을 가지고 있습니다 자신을 사용하고 스포츠 베팅에서 돈을 벌 수있는 베팅 전략을 얻었습니다 이 도구를 얼마나 쉽게 사용하는지 보여 드리겠습니다 이것은 메인 페이지입니다

여기에서 무료로 등록 할 수 있습니다 그런 다음 Betamin Builder 도구에 액세스하여 데이터베이스를 분석 할 수 있습니다 그것은 모두 무료입니다 "내 전략"영역에서 자신의 전략을 연구하거나 공개 전략을 사용하십시오 이러한 공개 전략은 Betaminic, 여기에는 Pro 심볼로 보거나 웹 사이트에서 전략을 공유 한 일반 사용자가 볼 수 있습니다

자신의 미래 시스템을 만들기위한 아이디어를 얻을 수 있기 때문에 공공 전략으로 시작하는 것이 좋습니다 또한 1 년 이상 운영되어 왔으며 여전히 수익을 창출하고있는 전략을 따를 수 있습니다 각 시스템은 0에서 100 사이의 베타 닉 랭킹을가집니다이 시스템은 Betaminic 스포츠 시장에서 패턴을 쉽게 찾을 수 있도록하고, 다른 곳에서는 찾을 수 없습니다 등급이 높을수록 더 높고 높은 등급은 기본적으로 이것이 베팅 확률의 실제 패턴 일 가능성이 더 높다는 것을 의미합니다 결과는 운이나 데이터 마이닝의 결과가 될 가능성이 적습니다

당신은 돈에 대한 좋은 수익을 얻기 위해 높은 등급과 높은 수익률을 가진 전략을 찾아야합니다 등급이 5 점 이상인 것은 이미 꽤 강한 패턴이지만, 10 이상이 실제로 강합니다 10 가지가 넘는 전략이 5 가지가 있으며 5 가지와 10 가지의 전략이 있습니다 현재 가장 높은 등급의 전략은 "거상 6 득점 오버 오버"라고하는 프로 전략입니다 저는 2018 년 2 월에 처음으로 "Winning Betting Strategies"라는 책을 만들었습니다

그것은 46의 등급과 약 10 %의 수율을 가지고 있습니다 전문직에 좋은 수익입니다 진짜 가장자리의 표시 인 것으로 수시로 5 %의 수확량을 보는 내기하는 사람 우리가 그 아래에있는 전략을 본다면 우리는 약 8 %의 수율과 45

이 전략은 다른 사용자가 만든 공유 전략입니다 보기 버튼을 클릭하여 전략의 세부 정보를 볼 수 있습니다 최고의 PRO를 살펴 보겠습니다 설명은 우리에게 전략 에 근거한다 모든 훌륭한 전략에는 왜 마술이 계속 잘못되었는지 가설이 있어야합니다

이 경우 데이터의 임의 패턴을 찾는 것이 아닙니다 이것은 홈 팀이 그들의 이전 게임에서 득점 한 25 점에 대한 확률은 마권업자 모델에 의해 밀어 올려 질 것입니다 또한 이전 경기에서 어웨이 팀이 득점 한 게임으로 필터링하여 멀리 떨어져 있다면 홈 팀이 골을 넣으면 홈 팀은 나와서 놀고 무승부 나 승리를 위해 더 많은 위험을 감수해야합니다 그렇다면 2

5 점 이상의 결과가 나올 확률이 더 높습니다 우리가 이런 종류의 조명기를 장기간 일관되게 지원했다면 전략은 약 7 년 만에 260 점을 기록했습니다 우리는이 실적 그래프에서이를 볼 수 있습니다 월간 결과, 손익도 볼 수 있습니다 그리고 최근에, 그래, 여전히 강하게 가고 있습니다

요점은 장기적인 것입니다 장기적인 전략을 따르면 시장의 불일치를 이용하여 이익을 얻길 바랍니다 적절한 자금 관리를 통해 이러한 종류의 베팅은 거의 일종의 투자로 간주 될 수 있습니다 왜냐하면 단기간 도박이 아닌 장기간 꾸준한 이득을 추구하기 때문입니다 어떤 투자와 마찬가지로 위험을 분산시키고 여러 전략을 따라야합니다

서로 균형을 이루는 도박 시스템 포트폴리오를 만들 수 있습니다 그래서 사람이 손해를 입으면 다른 사람들이 그것을지지합니다 Betaminic에는 결과를 볼 수있는 집계 기능이 있습니다 결합 된 그룹으로 사용한 경우 모든 전략을 함께 왼쪽에 사용할 전략을 선택할 수 있습니다 우리가 단을 함께 둘 때, 상위 5 개의 조합을 볼 수 있습니다

여기에서는 aggregator를 사용하여 5 대 평가 전략을 모두 정리하여 모두를 하나의 큰 것으로 사용한다면 어떤 일이 벌어 질지 알아 봅니다 체계 우리가 볼 수 있듯이 평균 수익률은 약 8 %에 가깝습니다 매월 약 15 점, 거의 16 점이됩니다 그것은 단지 200 점 이하가 될 것이고, 약 15 점이됩니다

1 년에 약 16 점이며 윤리에 가까운 투자 수익률을 보이며 이는 매우 좋은 수준입니다 또한 우리는 월별 결과를 볼 수 있으며 여러 시스템을 함께 사용하면 실제로 균형을 이루고 어떻게 만들어 지는지 확인할 수 있습니다 훨씬 더 부드럽습니다 이 시스템이 한 달 만에 마지막으로 잃어버린 시간은 2018 년 7 월 약 5 점을 잃은 후 매월 수익을 올리고 있습니다 몇 가지 전략을 함께 빗어 낼 수있는 능력에 대한 좋은 예입니다

내가 보여주고 싶은 또 다른 기능은 공개 전략 페이지에서는 공유 이후 전략을 정렬 할 수도 있습니다 그건 네가 볼 수 있다는 것을 의미한다 시스템이 생성 된 이후의 결과 이 방법으로 우리는 전략의 실제 결과를 볼 수 있습니다 또한 손익별로 정렬 할 수 있습니다

그리고 나서 어떤 것이 생성 된 이후에 가장 많은 이익을 창출했는지 봅니다 우리는 맨 위의 전략 인 Colossus 17 Dog Draw를 볼 수 있습니다 69 점은 2018 년 8 월 이후로 수익이 거의 7 %에 달합니다 꽤 괜찮아 이 전략을 따르는 것은 쉽습니다

Betaminic에 가입하고 팔로 잉을 클릭하십시오 단추 그런 다음 픽업 패키지를 구입해야하며 전자 메일로 선택을 받게됩니다 당신은 또한 수 웹 사이트에서 "Picks Picks"의 "My Picks"바 아래에서 확인하십시오 여기에서 다가오는 모든 예상 검색어를 볼 수 있으며 원하는 경우 날짜별로 또는 시간별로 정렬 할 수 있습니다

그리고 당신은 또한 당신의 역사적인 결과를 볼 수 있습니다 역사적인 선택도 추천은 보통 킥오프되기 전 약 36 ~ 48 시간 전에 발송됩니다 그래서 당신의 베팅을 할 충분한 시간이 있습니다 빅 데이터는 현재 일반 덤퍼에게 제공됩니다

확률 마켓에서 갭을 찾아 그들로부터 돈을 벌어 라 장기간에 초점을 맞추고 스포츠 도박이 투자의 한 형태라고 봅니다 내가 관심있어? 좋은 이제 그만둬 무료로 등록 할 수 있습니다

Betaminic 웹 사이트에서 링크는이 비디오의 설명에 있습니다 Betaminic에 대해 좀 더 알고 싶다면 wwwbetaminiccom을 방문하십시오

당신이 할 수있는 무료 책이 있어요 다운로드 및 또한 큰 데이터 베팅에 대한 많은 유용한 기사가있는 블로그가 있습니다 그러니 이제 그만둬 웹 사이트에 무료로 등록하십시오 Betaminic

Big Winners를위한 빅 데이터

Analyzing Big Data in less time with Google BigQuery

제프 데이비스 : 구글 클라우드 플랫폼 교육에 오신 것을 환영합니다 시리즈 내 이름은 제프 데이비스이며,이 세션에서 우리는 사용하여 짧은 시간에 데이터를 분석하고 논의 할 것이다 구글의 BigQuery

우리는 세션 동안 검토 QA를 실행됩니다 그래서 귀하의 질문에 필드를 물어 자유롭게 사용 질문을 제출하기 위해 화면의 하단에 우리는 함께 갈로 시작하자 그래서이 세션에 대한 의제는 밖으로 시작됩니다 데모의 시리즈 우리는 당신에게 일반적인 사용 사례 및 속도를 보여 드리겠습니다 하는 BigQuery를가 작동하고 얼마나 쉽게 그것을 사용하는 것입니다 그런 다음 우리는 기능의 일반적인 세트에 대해 얘기하자 BigQuery를위한 당신은 그들을 활용할 수있을 방법 환경입니다

우리는 당신 후에 질문에 대한 답을 찾는 방법에 대해 얘기하자 오늘의 세션을 떠나 당신은 얻을 자신에 BigQuery에 작업을 시작했다 우리는 평가에 대한 몇 가지 모범 사례에 대해 얘기하자 사용자 환경에서의 BigQuery 우리가 함께 갈로 그리고 다시, 우리는 Q & A를 할 수있을거다 그래서 그 질문을 제출합니다 의이 데모의 일련의 시작하자 그 쇼 모두의 BigQuery의 규모뿐만 아니라, 그것은 다른 시스템에 통합하는 것이 얼마나 쉬운 당신은 데이터 분석 및보고를 위해 사용하는 우리가 여기에있는 것은 웹 UI입니다 최종 사용자가 쉽게 BigQuery를 내 데이터를 재생할 수 있습니다

우리는 나중에 당신에게 통합을 보여줄 겁니다 에,하지만 지금 이것은 단지 반복 빠른 일입니다 큰 데이터 세트의 분석 그럼 몇 가지 샘플 데이터로 시작하자 구글 통해 사용할 수있는 설정합니다 예를 들어 그래서, 여기에 우리가 시간 데이터에 항공사가 있습니다 그래서 우리는 항공편의 목록을 가지고있다 그리고 우리가이 표를 보는 경우에, 당신은 8 기가 바이트 파일에 관하여 볼 수 있습니다

이것은 다른 관한 데이터의 70 만 행을의 시간, 도착 및 출발 성능에 항공사 ' 다른 주에서 등 그리고 몇 가지 정보를 얻을 싶어요 그래서 OK, 내가 여기있어 해당 쿼리 할 수있는 시작하는거야? 그리고이 모든 도착 항목 단지를 찾을 것입니다 유나이티드 항공합니다 그래서,이 복사 돌아가서 테이블을 조회 할거야 OK, 당신은 내가 표준 SQL을 사용하고 볼 수 있습니다

나는 항공편 테이블을 조회 할거야, 항공사 코드가 19977 인 모든 행을 찾고, 그건 유나이티드 항공의 코드 그리고 나는 모든 행에서 세 개의 열을 선택하겠습니다 지금은 우리 때문에 캐싱을 해제하는거야 그것을 수행하는 데 걸리는 시간을보고 싶어 70 홀수 만 행에 대한 초기 쿼리 당신은 나에게 얼마나 많은 데이터의 추정치를 제공합니다 알 수 있습니다 이 처리해야 할 것입니다 이것은 또한 추정에 유용 이 비용을거야 얼마나 당신이 지불, 나는 그것이 데이터 처리의 테라 바이트 당 $ 5의 전체 생각 최초의 테라 바이트 후

그래서 그 어떤 부분을 사용합니다 그래서 나는 이것을 실행하는거야 그리고해야 쿼리를 완료하는 데 25 ~ 30 초 정도 소요 이 돌아올 때, 그것은 우리에게 세 가지를 표시합니다 모든 열에 대한 행 그것은 우리에게 열 수를 줄 것이다 그리고 우리는 약간 더 흥미 쿼리로 이동합니다 그것은 우리에게 우리의 데이터로 좀 더 통찰력을 제공합니다

당신이 알 수 있도록이 238 초 걸렸습니다 데이터 2 기가 바이트 처리합니다 그것은 5,043,578 행을 반환 그래서 반환 된 데이터의 많은입니다

즉, 다시 와서 너무 오래 걸려서 이유의 일부입니다 이 있었다면 더 빠른했을 것이다 결과 집합에 더 적은 행 그래서이 일은, 도착 그냥 우리에게 일을 제공하다 상태, 및 도달 지연 나는 조금 더 통찰력을 얻을 싶습니다, 그래서 내가 할거야은이 쿼리를 실행합니다 이 쿼리는 나에게 월별 평균 지연 시간을 말해야한다 유나이티드 항공에 도착 상태로

그래서 달이 최악의 무엇을보고 싶어 어떤 상태 최악입니다 그래서 이것을 실행하자 다시, 같은 양의 데이터를 처리 할 것입니다 즉 빨리 꽤 돌아왔다 그리고 당신은 우리가 대신 5,000 행이 있음을 알 수 있습니다 500 만 개 행이 돌아왔다

즉, 이렇게 빨리 다시 온 이유의 일부입니다 그리고 당신은 우리가 알아 낸 것을 알 수 있습니다 우리는 개별 개월있어 각 상태입니다 그리고 그 달 동안, 우리는 수를 평균 지연있어 항공편의 조기 있었다 항공편의 수, 늦었 항공편의 수, 초기 있었다 항공편의 비율, 및 항공편의 비율이 늦었다 그 따라서이 데이터 분석의 공용어를 사용하고 있습니다 그것은 표준 SQL을 사용하고

이 쓰기 어렵지 않다 여기에 실제 쿼리 최적화가 없습니다 당신은 내가 또한 하위 쿼리를 사용하고 알 수 있습니다 그것은 완벽하게 유효합니다 그리고 매우 빨리 다시 얻을 수있었습니다 데이터의 매우 큰 컬렉션에서 통찰력

그래서 다시, 당신은 웹을 통해 모든 대화 형으로 수행 할 수 있습니다 UI 의 실제로 단지 규모를 살펴 보자 얼마나 빨리이 정말 큰 데이터 세트에 갈 수 있나요? 당신이 생각하는 그래서, 음, 제프, 7500 만 행 그것은 꽤 큰 데이터 세트입니다 음, 예를 들어, 이러한 데이터 세트의 일부만큼 큰 아니다

여기에서 우리는 위키 백과의 벤치 마크 데이터가 있습니다 당신이 보면, 당신은 볼 수 테이블 기본적으로 년, 월, 일, 프로젝트, 언어, 제목을 가지고있다, 그리고 볼 수 있습니다 그래서 얼마나 많은 시간에 대한 데이터를 가지고있다 특정 기사를 볼되었다 그래서 우리는 백만 행 버전을 가지고있다 우리는 1000 만 행 버전, 1 억이 행 버전 억 행 버전

어떻게 모든 규모 보자 그래서 우리는 백만 시작합니다 나는 표준 SQL을 끄고 유산을 사용하는거야 단지 웃음을위한 SQL 그래서 우리는 만 기사를 조회하는 것입니다 우리는이 모든 기사를 찾고 데이비스는 내가 상당히 헛된이기 때문에

나는 사람들에 대한 기사를 찾을거야 내 같은 성을 가진 우리는 이러한 일치하는 정규식 표현을 사용하는거야 그리고 내가하고 싶은 실제로 제목별로 그룹화입니다 및 뷰의 수를 합계 그럼 백만 행 데이터 세트를 통해이 작업을 수행 할 수 있습니다 이 47 메가 바이트 그리고 그것은 상당히 빨리 돌아올 것이다

그래서 당신은 안소니 데이비스와 토마스 데이비스를 알 수 있습니다 100 만에서 가장 많이 본 기사는 입력 데이터를 설정합니다 의는 1000 만 살펴 보자 OK, 그래서 우리는 476메가바이트 47 메가 바이트 이동합니다 그리고 우리 3 초 초 단지 몇에서 이동합니다 우리는 지금 대략 2,500 결과가 있습니다

다니엘 데이비스는 이제 정상이다 그래서이 10 만 할 3 초였다 의 100 만 달러를하자 그리고 당신은 우리가이 길을 찾는 일들을 참조하십시오 당신은 내가 1000 억 번호를 얻을거야 알고 싶어요 그리고 나는

나는 그 쿼리를 실행하는 내 주머니에서 $ 20을 지불해야 할거야 하지만 난 당신을 위해 그것을 할 것입니다 그래서 당신은, 아, 제퍼슨 데이비스를 확인할 수 있습니다 아니 내 이름을 딴 그것은 우연의 일치 좋아하는 재즈 뮤지션 마일즈 데이비스, 거기입니다

그래서 우리는 1 억을했습니다 아, 도대체, 이제하자 즉 2 초 걸렸습니다 의 100 억하자 이 데이터의 3

64 테라 바이트를 처리 할 것입니다, 1000 억 행 우리의 손가락을 교차 내 ATM 카드를 가져옵니다 그럼에도 불구하고, 그것에 대해 생각합니다 20 달러는 상각 비용에 비해이 쿼리를 실행합니다 큰 테라 데이타 시스템에 대해 쿼리의, 또는 다른 빅 데이터 장비 당신이있어 그

당신에게 동일한 성능을 제공하는 것입니다 실제로 값의 지옥이다 그래서 나는 쿼리를 완료하는 데 약 30 ~ 50 초 생각합니다 즉 실행중인 동안, 나는 실제로 그것의, 오이거나 먹어거야 끝난 그래서 37초

이 결과에 185,000 행이 돌아왔다 주목 그것은 집계 마일스 데이비스 사실이라고 얘기했다 100 십억 열 데이터 세트 내에서 가장 인기있는 기사 그래서 그것에 대해 생각합니다 즉 1000 억 행에 대한 분석을 수행하는 30 초입니다 여기 앉아서 내 쿼리를 반복 할 수있는, 아주, 아주 쉽게 내 데이터를 실시간으로 거의 상호 작용합니다 지금은 분명, 웹 UI와 대화 형으로이 일을 한 가지입니다

또 다른 한가지는 실제로 데이터를 노출하는 것입니다, BigQuery를 밖으로 잡아 당기 노출 다른 응용 프로그램을 통해 그래서 우리는 여기에 예를 들어 있습니다 이는 고객의 성공 응용 프로그램입니다 그 BigQuery에 데이터를 가져옵니다 그럼 대시 보드 중 하나를 살펴 보자 앱 엔진 세션에 갔다 경우, 이 대시 보드 이전 보았다

이것은 기본적으로 시각화의 무리를 가지고있다 사용자 참여 메트릭의 종류 내 제품 내 그리고 이것이 나를 수행 할 수 있습니다 것은 BigQuery를 밖으로 데이터를 가져입니다 및 API를 통해 코드를 나타냅니다 장면 여기 뒤에 그래서 나는 사용자 이벤트 테이블을 가지고있다 자,이 표는 하찮은 50 행이며, 하지만이 제품의 사용에 대한 데이터의 겸손한 금액입니다 그렇지 않은 있도록 그리고 데모 응용 프로그램은,이다 수십 수백만 개의 행의 수 있습니다

우리가 그 다음 일은 우리가 코드를 조금 쓰기입니다 이 액세스 할 수 있습니다 그리고 여기에 코드입니다 우리는 BigQuery를 이동하는 것입니다 이것은 약간의 파이썬 스크립트입니다 당신은 우리가 라이브러리를 가져올 수 있는지 우리가 알 수 있습니다

그래서 구글은 코드 라이브러리 또는 클라이언트 라이브러리를 가지고 다른 언어의 다양한 사용 가능, 그것은 매우 간단합니다 우리는 BigQuery에 클라이언트를 만드는, 우리는 데이터 세트에 연결 다음 데이터 세트 내에서, 우리는 테이블에 연결합니다 그리고 테이블 내에서, 우리는 다음 쿼리를 실행하려고합니다 우리가 예를 들어 임의의 쿼리를 실행하려면, 우리는 우리가 쿼리를 지정, 우리가 쿼리를 실행, 우리의 고객을 우리는 한 번을주고, 그래서 이것은 확인한다 쿼리 45 초까지 가지고 실행합니다

우리는 우리는 단순히 다음 쿼리를 실행하고 결과를 반복 그리고 이것은 우리가 결과를 처리 할 수 ​​있습니다 쿼리 당신의 BigQuery에 기록 할 경우, 그것은 아주 간단합니다 당신은 단순히 테이블을 당신은 행을 삽입합니다 그리고이 백엔드에 이벤트를 추가합니다

따라서이 데이터는 API 다음, 자동으로 작성됩니다 그것을 꺼내서 및 대시 보드에서 렌더링 응용 프로그램 내 지금 당신은 당신의 시각화를 수행하기 위해 다른 도구를 사용 할 수있다 및보고 당신은 웹 UI를 사용할 수 없습니다 당신은하지 않을 수 있습니다 사용자 정의 대시를 쓰기로까지 가고 싶어 신청 이제 당신이 뭔가를 사용하고자한다고 가정 해 봅시다 극적 장면이나 미인처럼, 또는이 경우에는, 나는 제품을 사용하고 있습니다 모드 웹 로그 분석을했다 이 BI 시각화 및 분석 도구 당신은 백엔드로 BigQuery에 연결할 수 있습니다

그래서 당신은 여기에 알 수 있습니다 날이 조금 더 큰를 만들어 보자 당신은 내가 데이터 소스를 알 수 있습니다 내가 더하기 기호를 클릭하면, 나는 실제로 수 백엔드 데이터 소스를 선택하고 I BigQuery에 연결하려는 승인

그래서 내가 BigQuery에 연결하려는 말하는 그것은 내 프로젝트 ID를 알고 싶어한다 그래서 GCP의 웹 세미나 데모 내 프로젝트 ID를 선택하는 것입니다 그리고 나는 서비스 계정을 만들어야합니다 그래서 서비스 계정이 만들어집니다 IAM의 ID 및 액세스 관리를 통해

그리고 당신은 내가 서비스 계정의 다양한있어 것을 알 수 있습니다 이리 내가 가서 새 서비스 계정을 만들 수 있습니다 사실, 죄송합니다, 서비스 계정이 여기에 있습니다 사람들은 역할을했다 나는 새 서비스 계정을 만들거야 나는이 모드를 호출하는거야

그리고이 서비스 계정의 BigQuery 관리자를주고 싶어 이 테이블을 만들 수 있도록 권한은 테이블을 삭제, 등의 데이터를 읽고 그리고 나는 새로운 개인 키를 얻으려면 그리고 나는 모드 문서를 읽을 수 있기 때문에, 나는 그것이 P12의 열쇠가 될 필요가 있음을 알고있다 그래서 나는이 서비스 계정을 만들거야 그리고 나는 자격 증명을 얻을

승인? 사실 우리는 그의를 취소합니다 내 열쇠 고리에 넣어 싶지 않아요 우리는 그 부분을 건너 뛸 수 있습니다 우리는 모드로 돌아가서 우리는 그것을주고있어 서비스 계정의 이름입니다 서비스 계정의 이름 또는 이메일 주소 그래서 여기입니다

그래서 우리는 그것을 지정하고 우리는 키 파일을 업로드해야합니다 그리고는 키 파일이어야합니다 모든 것이 잘된다면, 이것은 지금 내 도구를 연결했다 BigQuery에와 그래서 새 쿼리를 만들 수 있습니다 이제 내가 전에 사용하던 것처럼 많이 보이는 하나를 선택하자

의는 100 억 달러를 사용하지 말자 우리는 100 만 달러를 사용할 수 있습니다 OK, 지금은 쿼리를 입력해야합니다 그래서 난 내 사전에 준비된 쿼리 중 하나를 선택 갈거야 이제 가서 표준 SQL 형식을 사용하자 도착 시간에 미국의 대한 정보를 얻기 위해

나는 그것을에 붙여 넣을 수 있습니다 이 쿼리를 실행합니다 그것은 나에게 결과를 표 버전을 제공합니다 그리고 나는, 내가 예를 들어 차트를 만들 수 있습니다하려는 경우 즉, 도착 시간에 나타낸다 내가 원한다면 차트 유형을 변경할 수 있습니다

이런 종류의 물건 그래서 이것은 당신이 분석하고 시각화 할 수있는 방법을 보여줍니다 타사 도구 내에서, 그래서 당신은 BigQuery에 들어갈 수 일반 데이터 분석 및 분석 워크 플로우에 정말 멋진 승인 이제 다시 전환 및 BigQuery에서의 기능에 대해 얘기하자 사무용 겉옷

우리는 당신에게 그것의 일부 조각을 보여 주었다 의 추가 기능을 선택하자 당신이해야합니다 있도록 및 사용 사례 방법의 더 나은 이해는 환경에 적용합니다 그래서 다시, BigQuery를이 완벽하게 관리되고, 대규모, 저렴한 비용으로 엔터프라이즈 데이터 구글은 실행을 제공 창고 자신의 컴퓨팅 스토리지 및 네트워킹 인프라의 상단에 나는 어떤 회의에서 본 적이 데모 쿼리가 당신이 그것을 실행할 때, 그것은 3,300 코어, 330 개 하드 드라이브를 소요, 30 초 동안 네트워크 대역폭의 330 기가 바이트 완료합니다 이제 그 엄청난 숫자입니다

그러나 구글은 너무 많이 사용 가능한 용량을 가지고 있기 때문에, 그들은 그 수준에 당신에게 30 초 조각을 줄 수있어 자원의 다음 쿼리를 실행합니다 다시 그 자원을 발톱과에 배포 다른 사람의 질의에 대하여 당신이 관리 할 수없는 인프라가 없습니다 당신은 종종이 같은 존재 서버를 사용하지 않는 언급 듣게 될 것입니다 음, 분명히 서버를 사용하지 않다 , 관련 서버가 있기 때문에 하지만 당신은 어떤 서버가 처리 할 필요가 없습니다 당신은 당신의 데이터를 가져 오는에 초점 및 데이터를 분석합니다

당신은 서버를 서에 대해 걱정할 필요가 찢어하지 않습니다 아래 서버, 구성 업데이트, 그 물건의 당신은 쿼리를 수행 할 때, 당신은있어 결과는 정말, 정말 빨리 얻을 것이다 그래서 우리는 대략 35초에서 테라 바이트의 데이터를 스캔했다 페타 바이트 수준에서 몇 분을 얘기 그래서이 사실은 거대한 데이터를 분석 주위를 선회합니다 매우, 매우 빠른 설정합니다

어떤 더 나은 분석, 창조성을 의미한다, 당신이 파생시킬 수 있습니다 더 흥미로운 통찰력 그것은 표준 SQL을 사용합니다 나는 기존의 SQL 구문이 있음을 보여 주었다, 하지만 자신의 쿼리 언어의 최신 세대 그것은 2011 SQL 준수 ANSII, 그래서 당신은 실제로 수 다른 환경에서 리프트 쿼리 아주 약간의 조정이 어떤 그들이 실행하는 경우 BigQuery의 환경이다 내가 입증 된 바와 같이 당신은 웹 UI를 사용할 수 있습니다 또는 당신은 선택의 타사 도구를 사용할 수 있습니다 미인, 극적 장면처럼 클릭합니다 그들은 날짜 파티션 테이블을 가지고있다 그래서 당신은 실제로 자동으로 BigQuery에있을 수 있습니다 하루 또는 날짜별로 파티션 시계열 데이터

그리고 이것은 당신이 훨씬 더 높은 성능 쿼리를 가질 수 있습니다 또한 외부 데이터 소스에 대한 BigQuery에 쿼리를 할 수 있습니다 그래서 당신은 BigQuery에서 내부 데이터의 무리를 가질 수 있습니다, 그리고 당신은 외부 소스 데이터에 대한 데이터를 가입 할 수 있습니다 게다가 어떻게 당신의 BigQuery에 데이터의 이러한 엄청난 금액을받을 수 있나요? 글쎄, 당신은 대화 형으로이 작업을 수행 할 수 있습니다 당신은 웹 UI를 통해 파일을 업로드 할 수 있습니다처럼, 또는 당신은 BQ 명령 행 유틸리티를 사용할 수 있습니다 및 로컬 PC에서 파일을 업로드 할 수 있습니다

그러나, 분명히 그것은 잘 작동 것 데이터의 몇 메가 바이트는 것 이상을위한 데이터의 몇 테라 바이트 그래서 더 의미가 다른 방법이 있습니다 정말 많은 양을 전송 당신은 BigQuery에 직접 데이터를 스트리밍 할 수 있습니다 초당 100,000 행에 쿼리합니다 그래서 우리는 Highfive에했던 것들 중 하나, 내가 근무하는 데 사용이 화상 회의 시작, 우리는 실제로 generate– 것입니다 그래서 당신은 10,000 명의 사용자와 통화를했다 모든 10,000 통화를 위해 우리는 생성 된 제 수백 초 원격 측정 데이터에 의해 모든 단일 통화의 다른 카운터

우리는 프로덕션 데이터베이스로 그를 기록했다 하지만 다음의 BigQuery로 스트리밍 그리고 BigQuery를 데이터 저장소이었다에서 고객 마주 팀 대시 보드 자신의 모든 데이터를 끌었다 Google 클라우드 데이터 흐름은 데이터 파이프 라인의 프레임 워크 그것은 당신이 쉽게 변환의 ETL 정렬을 놓을 수 있습니다 입력 소스에서 데이터를 가지고 작업, 데이터를 조작하고 그들을 밖으로 쓰기 일부 대상 저장소로 데이터 흐름은 BigQuery를 아름답게 작동합니다 그래서 당신은 쉽게 배치 데이터를 처리 할 수있다 또는 스트리밍 데이터와 변환 엔진을 통해 펌핑 BigQuery에 넣습니다

새로 발표 BigQuery에 전송 서비스도 있습니다 어디, 당신의 유튜브 데이터의 정기적 전송을 설정할 수 있습니다 은 DoubleClick, 데이터 및 애드워즈 데이터 과의 BigQuery에 자동으로 스트림을 분석을 수행 추가 서비스가 될 것입니다 미래의 BigQuery 전송 서비스에오고 지금 2017 BigQuery에 전송 서비스의 원정 무료입니다 올해 중간 후, 그것을 요금 청구 월 서비스가 될 것이다 가용성 및 액세스 할 수 있습니다

귀하의 데이터는 여러 지역에 걸쳐 복제됩니다 무슨 의미하는 것은 내구성과 가용성이 있다는 것입니다 지붕 뚫고 당신이 장치가 내려가있는 경우,이 영역이 내려가있는 경우, 당신이 지역이있는 경우가있어 아래로 이동 아직 데이터에 대한 액세스를 얻을 수있을 것이다, 당신은 데이터가 손실되지 않습니다 또한 그 데이터에 액세스 할 수있는 사용자를 제어 할 수 있습니다 그래서 ID 및 액세스 관리 역할이있다 당신은 할당 할 수있다

당신이 개발자가 데이터를 기록 할 수 있습니다 말할 수 그래서 당신의 분석 데이터를 읽을 수 있습니다 또는 최종 사용자는 데이터를 읽을 수 있습니다 또한 데이터 세트 당 수준에서 권한을 설정할 수 있습니다 내가 언급 한 바와 같이 당신은 정말 높은 가용성을 가지고있다 가용성에 99

9 %의 SLA 당신이 BigQuery에서 저장 데이터는 나머지에서 암호화됩니다 우리는 당신이 IAM 역할을 사용할 수 있다는 사실을 언급 당신이 중 하나를 명령 줄이나 웹을 통해 사실 갈 수 UI 또는 외부 클라이언트 가격 그래서 BigQuery에 대한 가격에 두 가지 요소가있다

스토리지 구성 요소와 쿼리 처리 구성 요소가 있습니다 스토리지 구성 요소 그래서, 당신은 비용을 지불 한달 기가 바이트 당 $ 002 당신이 더 이상 30 일 이상 데이터를 저장하는 경우, 당신은 실제로 할인받을 데이터가 변경되지 않는 경우에 따라서 있지만, 그것에 대하여 질의 유지, 가격이 자동으로 내려갑니다

당신은 쿼리 처리 된 데이터의 테라 바이트 당 $ 5 지불합니다 첫 번째 테라 바이트는 무료입니다 기업의 경우 한 달 이상의 $ 10,000 않는 매월 분석 처리에있어서, 그들은 실제로 고정 요금 가격을 얻을 수 있습니다 그리고 당신은 전화 슬롯 무엇을 구입할 수 있습니다 그것은 기술의 일종이지만 다른 모델입니다 처리 수수료

그리고 당신은 본질적으로 할인 혜택이 무엇인지 얻을 수 있습니다 고정 요금 가격을 사용하여 볼륨이 $ 10,000 달 이상된다면, 확실히 약 $ 40,000 $ 50,000 월까지, Google 영업 담당자에게 이야기하고 그들이 당신을 연결할 수 있습니다 BigQuery에이 아니라는 것을 주목해야한다 모든 기업 데이터 저장소에 대한 대체 그것은 트랜잭션 관계형 데이터베이스 아니다 읽고 각각의 세포로 작성 찾고 있다면 그래서 테이블의 행에 지속적으로 그 업데이트, 즉,이가 무엇인지 아니다

BigQuery를, 당신은 당신이 데이터를 변경하지 마십시오에서 쓰기 데이터입니다 하지만 당신은 데이터에 대한보고를하고 있어요 마찬가지로,이 운영 데이터 저장소 아니다, 그리고 클라우드 기반의 솔루션입니다 당신은 응용 프로그램이있는 경우 그래서 전제 데이터웨어 하우징에 필요, BigQuery에는 작동하지 않을 것입니다 하지만, 자신에게 물어하고자하는 이점은 변경을 BigQuery에의 가치 필요한 워크 플로우에 구름이 데이터를 넣어? 조직의 많은 생각하지 않았다 그들이 원하는 또는 할 수있을 것 클라우드에서 데이터웨어 하우징을 찾고있다 그들이 찾을 수있는 이점은 충분히 큰 것을 창조적 인 방법은 그것이 작동되도록합니다 그래서 주어, 당신은 당신의 내부 팀과 함께 작업 할 우리가 BigQuery를 함께 무엇을 할 수 있는지 알아낼 수 있습니다

그래서 무슨 짓을했는지 샤인 기술이었다 그들은 고객과 작업하는 즉, 인터넷 광고의 엄청난 금액을했다 그리고이 고객이 원하는 것을 할 수 자신의 경영진에 제시 할 수 광고의 성능을 보여 주었다 라이브 대시 보드이었다 그래서 수백만 달러를 스트리밍 할 수있는 기능 그들이이 필요했다 및 BigQuery에 광고 노출의 수백만, 이 지속적으로 업데이트 된 데이터에 대한 분석을 생성 세트 수십억 개의 행이 있고, 할 그 복잡한 쿼리는 통찰력을 드라이브하고 이러한 시각화 그리고 샤인은 어떤 하둡 클러스터없이이 작업을 수행 할 수 있었다 정교한 시스템 작업에 투자하지 않고 그리고 그들은 고객의 대시 보드를 제공 할 수 있었다 그 것 지속적으로 20~30초 날짜 데이터까지의 시각화를 렌더링합니다

돈 저장된 톤 실제로 제품이되었다 그들이 뿐만 아니라 다른 고객에게 전송을 개시 할 수 있었다 이제 오늘의 세션에서 멀리 걸을 때, 당신이 일을하려는 당신은 질문이 있습니다 당신은 특정 작업을 수행하는 방법에 대한 지침을해야 할 수도 있습니다 그렇다면 당신은 데이터 또는 정보를 찾을 수 있습니까? 당신은 어떻게 당신이 찾고있는 것을 찾을 수 있습니까? 그래서 언제나처럼, 당신은 검색을 시작하려면, 그냥 입력 BigQuery에 당신의 주제이다 예를 들어 그래서, 당신은 알고 싶어 방법의 BigQuery에 데이터를 얻을 수 있습니다 BigQuery를 섭취

그리고 당신은, 당신이로드에 대한 데이터를 준비하고있어 한 알 수 있습니다 데이터 섭취 시간 개선 스트리밍 데이터, 등, OK? 그래서 예를 들어,이 문서는 회담 그 전에 데이터를 압축 브로를 사용하는 방법에 대한 그것을 전송하고 타단을 압축 해제한다 이 BigQuery에서 쿼리에 내장되어 있습니다 그것은 데이터 로딩이 훨씬 더 효율적 있습니다 내용의 전형적인 테이블도 있습니다 BigQuery에 문서입니다 그래서 내가 실제로 둘러보기에 당신을 데려 갈 수 있습니다

우리가 BigQuery에서 입력한다면 여기 상단까지 구글의 시작 페이지가됩니다 당신이보기의 BigQuery의 문서를 클릭하면, 당신은 내용의 전형적인 테이블을 얻을 수 있습니다 여기에 빠른 시작이있다 사실이

웹 UI에 대한 하나의, 명령 줄 하나 이 당신을 일어나서 5 분 미만에서 실행 그들은 당신에게 매우 빠른 맛을 제공합니다 그리고 당신은 안내하는 방법으로 드릴 다운을 가지고있다 그래서 당신은 내가 데이터를로드 어떻게 볼 수 있습니까? 나는 그것을로드하기 전에 어떻게 데이터를 준비합니까? 어떻게 데이터를 변환합니까? 어떻게 데이터 저장소 또는 클라우드 스토리지에서로드 않습니다, 또는 API를 통해? 어떻게에서 스트리밍합니까? 그리고 여기에, 어떻게 쿼리를해야합니까이야? 그리고 부분은 여기까지 어떻게 데이터를 내보낼 않습니다에있다? 그리고 보안 및 관리의 주위에 일반적으로 기초, 기타 등등

그래서 꽤 잘 합리적으로 철저한 조직 참고 당신에게 매우 유용합니다 지금, 나는 규정 된 방법이 없습니다 BigQuery에 대한 평가 작업을 수행하는 방법에 대한 정말 응용 프로그램에 따라 다릅니다 때문이다 나는 일반적으로 매우 다른 두 가지 방법을 듣고 사용했습니다 대규모 데이터웨어 하우징 요구 사항이 회사에 의해 하나는 최고 반 다스 쿼리를 수행하는 것입니다

그래서 상위 반 다스 작업 기존 인프라에 침입, 아니면 그냥 시간이 오래 걸릴 및 BigQuery에로 이동합니다 당신은 불과 5 ~ 6 쿼리를 선택 그래서, 당신은 당신의 데이터를로드 당신은 당신이 그들이 얼마나 잘 참조 쿼리를 실행합니다 더 나은 경우에, 중대한 당신은 갈 준비가 된 것입니다 스펙트럼의 다른 쪽 끝에서 회사는 어디 정말 방식에 대해 매우 조직 및 철저한 될거야 그들은 평가를 할

그들은 클라우드로 데이터 중 하나를 이동할 수 있습니다 전에 그래서, 그들은 준수 및 규제 연구를해야합니다 그들은 그들의 모든 데이터를 정화해야합니다 그들은 데이터를 익명화해야 할 수도 있습니다 그들은 막대한 양의 데이터를로드 그리고 그들은 본질적으로 복제 기존의 분석은 BigQuery에서 워크 플로우 그리고 그들은 지금까지 실제로 수행하는 방법으로 갈 수있다 블라인드 맛 테스트합니다

그래서 그들은 자신의 프론트 엔드 표현이 동일해야, 하지만 그들은 사용자의 절반이 새로운 BigQuery를 통과해야 파이프 라인을 활성화, 반 사용자는 이전을 통해 이동합니다 그리고 그들은 효능 판단, 만족도, 기타 등등 그래서 그것을 당신에게 달려 될 것, 그리고 있어요 당신이있어 수직 무엇인지에 따라 달라집니다, 어떤 데이터는 등을보고하고 있습니다 물론, 신속하고 더러운 방법으로는 얻을 수 잠재적 인 이득이 무엇인지 감각 반 다스 쿼리를 수행하는 것입니다 그리고, 장기적 응용 프로그램에 따라 당신은 개념을 훨씬 더 철저한 증거를 수행해야 할 수 있습니다

그래서이 세션을합니다 우리에 가입 해 주셔서 감사합니다 난 당신이 재미 있고 도움이 되었기를 바랍니다 우리는 당신에게 후속 이메일을 보내려고하고, 그것은 코드 랩에 대한 링크를해야합니다, 그래서 당신은 BigQuery를 통해 가이드 산책을 얻을 것이다 당신이 스스로 할 수 있습니다 우리는 지금, 당신의 피드백을 얻을 싶어요 UI에서 피드백을 제공 주시기 당신의 앞에, 그리고 유지하십시오 다음 세션을 위해 조정